JPH08161499A - Object recognition device - Google Patents

Object recognition device

Info

Publication number
JPH08161499A
JPH08161499A JP6301144A JP30114494A JPH08161499A JP H08161499 A JPH08161499 A JP H08161499A JP 6301144 A JP6301144 A JP 6301144A JP 30114494 A JP30114494 A JP 30114494A JP H08161499 A JPH08161499 A JP H08161499A
Authority
JP
Japan
Prior art keywords
angle
image
video camera
color
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6301144A
Other languages
Japanese (ja)
Inventor
Hiroshi Uchino
浩志 内野
Nobukazu Kawagoe
宣和 川越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP6301144A priority Critical patent/JPH08161499A/en
Publication of JPH08161499A publication Critical patent/JPH08161499A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Radiation Pyrometers (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PURPOSE: To provide prescribed information in response to an operation content to an object by detecting the operation of the object. CONSTITUTION: A color extract circuit 31 extracts a skin color area from an image picked up by a wide angle color video camera 28 and a CPU (II) 33 detects a moving object from the movement of the skin color area. Then a notice point measurement unit U1 controls a notice direction of the detected moving object, a narrow angle color video camera 22 picks up an image, a radiation thermometer 21 measures the temperature and the CPU (II) 33 discriminates whether or not the object is a person based on the image information and the temperature measurement information. When the object is a person the operation content of the person is discriminated by a tracking processing section and a message in response to the operation content is outputted from a display device 41 and a voice output device 42 of an information output section 4 when the operation indicates an access motion or a crossing motion.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えば色、温度、距離
等の物体に関する情報を遠隔的に検出し、この検出情報
から目的とする対象物を認識する物体認識装置に係り、
特に対象物の動作に応じて当該対象物に所定の情報を提
供する物体認識装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object recognition device for remotely detecting information on an object such as color, temperature, distance, etc., and recognizing a target object from the detected information.
In particular, the present invention relates to an object recognition device that provides predetermined information to an object according to the movement of the object.

【0002】[0002]

【従来の技術】従来、ビデオカメラと放射温度計とを用
いて対象物の画像情報と温度情報とを取り込み、これら
画像情報及び温度情報から対象物の認識を行う物体認識
装置が提案されている。
2. Description of the Related Art Heretofore, an object recognition apparatus has been proposed which captures image information and temperature information of an object using a video camera and a radiation thermometer and recognizes the object from the image information and the temperature information. .

【0003】例えば、特開平5−297152号公報に
は、カラービデオカメラを放射温度計のファインダ部に
取り付けるとともに、このファインダ部の前方に対象物
からの光及び赤外線をカラービデオカメラ及び放射温度
計に導くミラーを設け、カラービデオカメラで色、大き
さ、形状等の情報を検出するとともに、放射温度計で温
度を検出し、これら色、大きさ、形状及び温度の情報か
ら対象物を、例えば人物であるか否か等の認識する物体
認識装置が提案されている。
For example, in Japanese Unexamined Patent Publication No. 5-297152, a color video camera is attached to a finder portion of a radiation thermometer, and light and infrared rays from an object are provided in front of the finder portion with a color video camera and a radiation thermometer. A color video camera detects information such as color, size, and shape, and a radiation thermometer detects temperature. Based on the information about color, size, shape, and temperature, for example, There has been proposed an object recognition device that recognizes whether or not a person is a person.

【0004】また、従来、自動ドアの開閉動作に連動し
て「いらっしゃいませ」等の音声メッセージを発生する
ものが知られている。
Further, conventionally, there has been known one which generates a voice message such as "Welcome" in conjunction with the opening / closing operation of an automatic door.

【0005】[0005]

【発明が解決しようとする課題】上記特開平5−297
152号公報の物体認識装置は、画像情報及び温度情報
から目的とする対象物を認識し、この認識結果に基づい
て当該対象物を監視するもので、目的とする対象物の動
作に応じて所定の情報を当該対象物に提供する機能は有
していない。
DISCLOSURE OF THE INVENTION Problems to be Solved by the Invention
The object recognition device of Japanese Patent Publication No. 152 recognizes a target object from image information and temperature information, and monitors the target object based on the recognition result. Does not have the function of providing the information of the above to the object.

【0006】従って、例えば目的の対象物として人間を
監視する場合、注目している人間が近づいたり、横切っ
たとき、当該人間に「いらっしゃませ。」、「ちょっと
待ってください。」等のメッセージが提供できると便利
であるが、上記従来の物体認識装置では、かかる情報提
供を行うことはできない。
[0006] Therefore, for example, when a human being is monitored as a target object, when the human being approaching approaches or crosses, a message such as "Welcome" or "Wait a moment" is given to the human. Is convenient, but the above-described conventional object recognition device cannot provide such information.

【0007】また、従来の自動ドアに連動して音声メッ
セージが発生されるものは、ドアの開閉動作に応答して
音声メッセージが発生されるもので、目的とする対象物
(人間)を検出してメッセージを提供するものでないか
ら、人間以外の行為に起因して自動ドアの開閉が行われ
た場合は、誤動作して不必要にメッセージが提供される
ことが多い。
Further, a conventional voice message is generated in conjunction with an automatic door is a voice message generated in response to the opening / closing operation of the door, and detects a target object (human). Therefore, when the automatic door is opened / closed due to an act by a person other than the human being, the message is often provided unnecessarily due to a malfunction.

【0008】本発明は、上記課題に鑑みてなされたもの
であり、物体認識だけでなく、対象物の動作に応じて所
定の情報提供が可能な汎用性、応用性に優れた物体認識
装置を提供することを目的とする。
The present invention has been made in view of the above problems, and provides an object recognition apparatus excellent in versatility and applicability capable of providing predetermined information according to the movement of an object as well as object recognition. The purpose is to provide.

【0009】[0009]

【課題を解決するための手段】本発明は、画像を取り込
む画像取込手段と、画像取込手段により取り込まれた画
像の中から目的とする対象物の画像を抽出する画像抽出
手段と、抽出画像から対象物を認識する物体認識手段
と、認識された対象物の動作を検出する動作検出手段
と、検出された対象物の動作が予め設定された所定の動
作パターンに一致するか否かを判別する判別手段と、対
象物の動作が上記所定の動作パターンと一致したとき、
この動作パターンに対応して予め設定された所定情報を
出力する情報出力手段とを備えたものである。
The present invention is directed to an image capturing means for capturing an image, an image extracting means for extracting an image of a target object from an image captured by the image capturing means, and an extracting means. An object recognition unit that recognizes an object from an image, a motion detection unit that detects a motion of the recognized object, and whether or not the detected motion of the object matches a predetermined motion pattern set in advance. When the movement of the object and the discrimination means for discriminating matches the predetermined movement pattern,
An information output unit that outputs predetermined information set in advance corresponding to this operation pattern is provided.

【0010】[0010]

【作用】本発明によれば、注視方向の所定範囲内の被写
体の画像が取り込まれると、この画像の中から目的とす
る対象物の画像が抽出され、この抽出画像から当該対象
物が目的とする対象物であるか否かの判別(認識)が行
われる。そして、抽出画像が目的とする対象物の画像で
あると認識されると、更に当該対象物の動作が検出さ
れ、この検出結果が予め設定された所定の動作パターン
に一致していれば、当該対象物に対して当該動作パター
ンに応じた所定の情報が出力される。
According to the present invention, when an image of a subject within a predetermined range in the gaze direction is captured, an image of the target object is extracted from this image, and the target object is extracted from the extracted image. It is determined (recognized) whether or not it is an object to be processed. Then, when the extracted image is recognized as the image of the target object, the motion of the target object is further detected, and if the detection result matches the preset predetermined motion pattern, Predetermined information corresponding to the operation pattern is output to the object.

【0011】[0011]

【実施例】本発明に係る物体認識装置は、広角のカラー
ビデオカメラによる撮像画像から所定の色の領域の移動
を検出することにより目的とする対象物を検出し、更に
狭角のカラービデオカメラで当該対象物を追尾的に撮像
するとともに、放射温度計で当該対象物の温度を測温す
る。そして、狭角カラービデオカメラの画像情報と温度
情報とから対象物の認識が行われ、目的の対象物である
と確認されると、更に当該対象物の動作パターンが検出
され、この動作パターンが所定の動作パターンであれ
ば、当該対象物に所定の動作に応じた所定の情報を提供
するものである。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An object recognition apparatus according to the present invention detects a target object by detecting a movement of a region of a predetermined color from an image picked up by a wide-angle color video camera, and a narrow-angle color video camera. The target object is tracked and imaged, and the temperature of the target object is measured by a radiation thermometer. Then, the object is recognized from the image information and the temperature information of the narrow-angle color video camera, and when it is confirmed that the object is the target object, the operation pattern of the object is further detected, and this operation pattern is detected. If it is a predetermined motion pattern, the target object is provided with predetermined information according to a predetermined motion.

【0012】具体的な応用例として、販売店や会場等の
入り口で顧客の出入りを監視し、入場若しくは退場して
いるお客を検出し、これらのお客に対して「いらっしゃ
いませ。」、「ありがとうございました。」等のメッセ
ージを提供したり、横切っていくお客を検出し、これら
のお客に対して「ちょっと待って下さい。」等の注意を
喚起するメッセージを提供する場合が想定される。
As a concrete application example, the entrance / exit of a customer is monitored at the entrance of a store or a venue, and the customers who are entering or leaving are detected, and "Welcome." It is assumed that a message such as "Thank you" is provided, or that a customer who is crossing is detected and a message that calls attention such as "Please wait a moment" is provided to these customers.

【0013】本発明に係る物体認識装置のアプリケーシ
ョンは、上記に限られず、生産現場における作業者若し
くは生産機械の動作を監視し、異常な動作を検出してセ
キュリティの向上に役立てる等の各種の場合が考えられ
るが、本実施例では、上記顧客に対してメッセージを提
供する場合を例に説明する。
The application of the object recognition apparatus according to the present invention is not limited to the above, but in various cases such as monitoring the operation of a worker or a production machine at a production site and detecting an abnormal operation to help improve security. However, in the present embodiment, a case of providing a message to the customer will be described as an example.

【0014】図1は、本発明に係る物体認識装置のブロ
ック構成図である。物体認識装置1は、対象物の色、大
きさ、形状、温度等の属性に関する情報を取り込むセン
サユニット部2と、上記情報を取り込むセンサの駆動制
御や対象物の認識を行うべく取り込まれた情報を用いて
各種の演算処理及び画像処理を行う画像処理部3と、検
出された目的とする対象物に対して所定の情報を出力す
る情報出力部4とからなる。
FIG. 1 is a block diagram of an object recognition apparatus according to the present invention. The object recognition device 1 includes a sensor unit 2 that captures information about attributes such as color, size, shape, and temperature of an object, and information captured to perform drive control of a sensor that captures the above information and recognition of the object. The image processing section 3 performs various arithmetic processing and image processing by using the, and an information output section 4 that outputs predetermined information with respect to the detected target object.

【0015】センサユニット部2は、対象物の画像情報
及び温度情報の取り込むもので、温度情報の取込装置と
して放射温度計21を備え、画像情報の取込装置として
2台のビデオカメラ、すなわち、狭角カラービデオカメ
ラ22と広角カラービデオカメラ28とを備えている。
The sensor unit section 2 is for taking in image information and temperature information of the object, is equipped with a radiation thermometer 21 as a temperature information taking-in device, and has two video cameras, ie, image taking-in devices. , A narrow-angle color video camera 22 and a wide-angle color video camera 28.

【0016】広角カラービデオカメラ28は、広い視野
で対象物をサーチするもので、例えば水平角度60°以
上の単焦点撮影レンズを有し、図2に示すように、広い
画角GA1で対象物の画像を取り込む。広角カラービデ
オカメラ28は、後述するように、水平方向(以下、パ
ン方向という)に回転可能な基台に固定され、この基台
を旋回させることにより監視方向(光軸L0の方向)が
変更可能になっている。
The wide-angle color video camera 28 searches for an object in a wide field of view, has a single-focus photographing lens with a horizontal angle of 60 ° or more, and has a wide angle of view GA1 as shown in FIG. Capture the image of. As will be described later, the wide-angle color video camera 28 is fixed to a base that can rotate in a horizontal direction (hereinafter, referred to as a pan direction), and the monitoring direction (direction of the optical axis L0) is changed by rotating the base. It is possible.

【0017】一方、狭角カラービデオカメラ22(画像
取込手段)は、広角カラービデオカメラ28で監視して
いる範囲内にある一部の対象物を注視するもので、広角
カラービデオカメラ28より水平画角の狭いズームレン
ズを有している。狭角カラービデオカメラ22は、図2
に示すように、上記画角GA1より狭い画角GA2で上
記広角カラービデオカメラ28の画角GA1内に含まれ
る任意の対象物の画像を取り込む。
On the other hand, the narrow-angle color video camera 22 (image capturing means) gazes at some objects within the range monitored by the wide-angle color video camera 28. It has a zoom lens with a narrow horizontal angle of view. The narrow-angle color video camera 22 is shown in FIG.
As shown in, the image of an arbitrary object included in the angle of view GA1 of the wide-angle color video camera 28 is captured with the angle of view GA2 narrower than the angle of view GA1.

【0018】狭角カラービデオカメラ22は、例えば図
3に示す自動焦点調節(AF)機構を備え、注視してい
る対象物に自動的に合焦されるようになっている。
The narrow-angle color video camera 22 is equipped with, for example, an automatic focusing (AF) mechanism as shown in FIG. 3 so that it is automatically focused on the target object.

【0019】すなわち、レンズ繰出装置225により撮
影レンズ221を移動させながらCCD等の撮像素子2
22で対象物が所定周期で撮像され、この撮像された映
像信号は、アンプ223で増幅された後、映像信号レベ
ル検出器224に入力される。映像信号レベル検出器2
24では画面中央に設けられた測距エリア内で映像信号
の高周波成分を抽出し、その信号レベルを検出信号とし
て出力する。そして、この検出信号はレンズ位置制御回
路228に入力される。
That is, while moving the taking lens 221 by the lens feeding device 225, the image pickup device 2 such as CCD.
The object is imaged at a predetermined cycle at 22, and the imaged image signal is amplified by the amplifier 223 and then input to the image signal level detector 224. Video signal level detector 2
At 24, the high frequency component of the video signal is extracted in the distance measuring area provided at the center of the screen, and the signal level thereof is output as a detection signal. Then, this detection signal is input to the lens position control circuit 228.

【0020】一方、撮影レンズのレンズ位置はレンズ位
置検出器226で検出され、この検出信号は、アンプ2
27で増幅された後、上記レンズ位置制御回路228に
入力される。レンズ位置制御回路228は、レンズ位置
の情報に基づきレンズ繰出装置225を介して撮影レン
ズ221を前後方向に移動させて上記高周波成分が最大
となる位置(合焦位置)に撮影レンズ221を設定す
る。
On the other hand, the lens position of the taking lens is detected by the lens position detector 226, and this detection signal is sent to the amplifier 2
After being amplified by 27, it is input to the lens position control circuit 228. The lens position control circuit 228 moves the photographing lens 221 in the front-rear direction via the lens feeding device 225 based on the lens position information, and sets the photographing lens 221 to the position (focus position) where the high frequency component is maximum. .

【0021】なお、広角カラービデオカメラ28も上記
と同様の自動焦点調節(AF)機構を備えている。ま
た、広角カラービデオカメラ28の撮影レンズもズーム
レンズで構成し、画角調整可能にしてもよい。
The wide-angle color video camera 28 also has an automatic focusing (AF) mechanism similar to that described above. Further, the taking lens of the wide-angle color video camera 28 may be composed of a zoom lens so that the angle of view can be adjusted.

【0022】画角調整装置23は、狭角カラービデオカ
メラ22の撮影画面の画角を調整するものである。画角
調整装置23は、CPU(I)29からの制御信号に基づ
き画角GA2が指示された画角となるように、狭角カラ
ービデオカメラ22のズーム位置を調節する。
The angle-of-view adjusting device 23 is for adjusting the angle of view of the photographing screen of the narrow-angle color video camera 22. The view angle adjusting device 23 adjusts the zoom position of the narrow-angle color video camera 22 so that the view angle GA2 becomes the instructed view angle based on the control signal from the CPU (I) 29.

【0023】放射温度計21は、対象物から放射される
赤外線を受光し、この赤外線エネルギーから対象物の表
面温度を計測するものである。放射温度計21は、光軸
L2と対象物との交点をスポット的に測温するようにな
され、測温ポイントは、後述するように、狭角カラービ
デオカメラ22の撮影画面GA2内でチルト方向に変更
可能になっている。放射温度計21で測温された温度情
報は、センサユニット部2の制御回路(CPU(I))2
9(以下、CPU(I)29という)に入力される。
The radiation thermometer 21 receives infrared rays emitted from an object and measures the surface temperature of the object from the infrared energy. The radiation thermometer 21 is adapted to measure the spot temperature at the intersection of the optical axis L2 and the object, and the temperature measurement point is the tilt direction in the photographing screen GA2 of the narrow-angle color video camera 22 as described later. It can be changed to. The temperature information measured by the radiation thermometer 21 is stored in the control circuit (CPU (I)) 2 of the sensor unit 2
9 (hereinafter, referred to as CPU (I) 29).

【0024】すなわち、物体認識装置1は、広角カラー
ビデオカメラ28により広い範囲の画像を取り込み、こ
の広角画像から監視範囲GA1内に注視すべき対象物、
例えば人物の顔があるか否かを判別し、注視すべき対象
物があると判断されると、当該対象物の狭角画像を狭角
カラービデオカメラ22で取り込むとともに、放射温度
計21で温度を計測し、これら画像情報と温度情報とに
基づいて当該対象物の認識を行うようになっている。
That is, the object recognition apparatus 1 captures an image of a wide range by the wide-angle color video camera 28, and an object to be watched from the wide-angle image within the monitoring range GA1.
For example, if it is determined whether or not there is a person's face and it is determined that there is an object to be watched, the narrow-angle image of the object is captured by the narrow-angle color video camera 22 and the temperature is measured by the radiation thermometer 21. Is measured, and the object is recognized based on the image information and the temperature information.

【0025】測温方向移動装置24は、上記放射温度計
21の測温方向をチルト方向に所定範囲内で移動させる
ものである。測距回路25は、狭角カラービデオカメラ
22が注視している対象物までの距離を測定するもので
ある。測距回路25は、狭角カラービデオカメラ22の
AF機構で検出される合焦位置の情報(図3のアンプ2
27の出力)に基づいて狭角カラービデオカメラ22か
ら対象物までの実際の距離D(mm)を検出する。測距回
路25で検出された対象物までの距離Dは、CPU(I)
29に入力される。
The temperature measuring direction moving device 24 moves the temperature measuring direction of the radiation thermometer 21 in the tilt direction within a predetermined range. The distance measuring circuit 25 measures the distance to the object which the narrow-angle color video camera 22 is gazing at. The distance measuring circuit 25 uses the focus position information detected by the AF mechanism of the narrow-angle color video camera 22 (amplifier 2 in FIG. 3).
The actual distance D (mm) from the narrow-angle color video camera 22 to the object is detected based on the output (27). The distance D to the object detected by the distance measuring circuit 25 is calculated by the CPU (I)
29 is input.

【0026】上記放射温度計21、狭角カラービデオカ
メラ22、測温方向移動装置24及び測距回路25は、
目的とする対象物に関する画像情報と温度情報とを取り
込むもので、これらの装置で注視点測定ユニットU1を
構成している。
The radiation thermometer 21, the narrow-angle color video camera 22, the temperature measuring direction moving device 24, and the distance measuring circuit 25 are
It captures image information and temperature information about a target object, and these devices constitute the gazing point measuring unit U1.

【0027】注視方向移動装置26は、注視点測定ユニ
ットU1の注視方向(狭角カラービデオカメラ22の光
軸L1の方向)を移動する装置である。注視点測定ユニ
ットU1は、パン方向及びチルト方向に回動可能になさ
れ、パン方向移動とチルト方向移動とを組み合わせて任
意の方向に注視方向が移動されるようになっている。注
視方向移動装置26は、CPU(I)29から入力される
旋回制御値(パン方向及びチルト方向の各回動量)に基
づいて注視点測定ユニットU1の注視方向を変更する。
The gaze direction moving device 26 is a device that moves the gaze direction of the gaze point measuring unit U1 (direction of the optical axis L1 of the narrow-angle color video camera 22). The gazing point measurement unit U1 is rotatable in the pan direction and the tilt direction, and the gazing direction is moved in an arbitrary direction by combining the pan direction movement and the tilt direction movement. The gaze direction moving device 26 changes the gaze direction of the gaze point measuring unit U1 based on the turning control value (the amount of each rotation in the pan direction and the tilt direction) input from the CPU (I) 29.

【0028】パン/チルト位置検出器27は、狭角カラ
ービデオカメラ22の光軸L1の基準方向(正面方向)
に対するパン方向の回転角α及びチルト方向の回転角θ
を検出するもので、基準方向に対する注視方向の傾斜量
を検出するものである。検出されたパン方向の回転角α
及びチルト方向の回転角θは、CPU(I)29に入力さ
れる。
The pan / tilt position detector 27 is a reference direction (front direction) of the optical axis L1 of the narrow-angle color video camera 22.
Rotation angle α in the pan direction and rotation angle θ in the tilt direction with respect to
Is to detect the tilt amount in the gaze direction with respect to the reference direction. Rotation angle α in the detected pan direction
The rotation angle θ in the tilt direction is input to the CPU (I) 29.

【0029】CPU(I)29は、センサユニット部2の
動作を集中制御する制御回路である。CPU(I)29
は、各種演算処理を行うためのメモリ291を有してい
る。CPU(I)29は、放射温度計21から入力された
温度情報及び測距回路25から入力された対象物までの
距離情報を解析し、これら温度情報及び距離情報をシリ
アルインターフェースを介して画像処理部3に出力す
る。また、画像処理部3からの注視方向制御命令を受け
て注視方向移動装置26の駆動を制御し、注視点測定ユ
ニットU1を目的とする対象物の方向に制御する。更
に、画角調整装置26を介して狭角カラービデオカメラ
22のズーム位置を調節(画角調節)し、目的とする対
象物の撮影画面GA2内における大きさを好適な大きさ
にする。
The CPU (I) 29 is a control circuit for centrally controlling the operation of the sensor unit section 2. CPU (I) 29
Has a memory 291 for performing various arithmetic processes. The CPU (I) 29 analyzes the temperature information input from the radiation thermometer 21 and the distance information to the target object input from the distance measuring circuit 25, and image-processes the temperature information and the distance information via a serial interface. Output to the part 3. Further, in response to a gaze direction control command from the image processing unit 3, the gaze direction moving device 26 is driven and controlled, and the gaze point measuring unit U1 is controlled in the direction of the target object. Further, the zoom position of the narrow-angle color video camera 22 is adjusted (angle of view adjustment) via the angle-of-view adjusting device 26 to adjust the size of the target object in the photographing screen GA2 to a suitable size.

【0030】図4は、測定ブロックの構造の一例を示す
一部破断した斜視図である。同図において、基台5は、
不図示の駆動機構により水平面内で回動可能になされ、
基台5を回動させてカラービデオカメラ22,28の注
視方向が変更されるようになっている。広角カラービデ
オカメラ28は、基台5に固着され、基台5と一体的に
回転するようになっている。また、注視点測定ユニット
U1及び注視方向移動装置26は、上記広角カラービデ
オカメラ28の上部に固定された箱体10内に設けられ
ている。箱体10も基台5の回転に応じて一体的に回転
する。
FIG. 4 is a partially cutaway perspective view showing an example of the structure of the measurement block. In the figure, the base 5 is
It can be rotated in a horizontal plane by a drive mechanism (not shown),
The gazing directions of the color video cameras 22 and 28 are changed by rotating the base 5. The wide-angle color video camera 28 is fixed to the base 5 and rotates integrally with the base 5. The gazing point measuring unit U1 and the gazing direction moving device 26 are provided in the box body 10 fixed to the upper part of the wide-angle color video camera 28. The box body 10 also rotates integrally with the rotation of the base 5.

【0031】図5は、注視点測定ユニットU1の内部構
造の概略図である。注視点測定ユニットU1の箱体11
内の下部に、該箱体11の前面に撮影レンズ221を露
出させて狭角カラービデオカメラ22が固定され、この
狭角カラービデオカメラ22の上部に、箱体11の前面
に受光窓21Aを露出させて放射温度計21がチルト方
向に回動可能に取り付けられている。
FIG. 5 is a schematic view of the internal structure of the gazing point measuring unit U1. Box 11 of gazing point measurement unit U1
A narrow-angle color video camera 22 is fixed to the lower part of the box body 11 by exposing the taking lens 221 to the front surface of the box body 11. At the upper part of the narrow-angle color video camera 22, a light receiving window 21A is provided on the front surface of the box body 11. The radiation thermometer 21 is attached so as to be exposed and rotatable in the tilt direction.

【0032】放射温度計21は、両側面の適所に回動軸
211が突設され、この回動軸211の先端は箱体11
に回動可能に支持されている。なお、回動軸211を放
射温度計21の両側面に回動可能に突設し、この回動軸
211の先端を箱体11に固着してもよい。
The radiation thermometer 21 has a rotating shaft 211 projecting at appropriate positions on both side surfaces, and the tip of the rotating shaft 211 is provided in the box body 11.
It is rotatably supported by. Alternatively, the rotary shaft 211 may be rotatably provided on both side surfaces of the radiation thermometer 21, and the tip of the rotary shaft 211 may be fixed to the box body 11.

【0033】放射温度計21の背面の中央位置(光軸L
2が交差する位置)にレバー212が突設され、このレ
バー212の先端部の下方位置に偏心カム242が設け
られている。
The central position of the back surface of the radiation thermometer 21 (optical axis L
A lever 212 is provided so as to project at a position where the two intersect, and an eccentric cam 242 is provided at a position below the tip of the lever 212.

【0034】また、放射温度計21の上面前端部は、箱
体11の上面適所に吊着されたバネ213により上方に
付勢されている。従って、レバー212は、バネ213
の付勢力により回動軸211を中心に時計廻りに回転し
て上記偏心カム242の周面に圧接されている。
Further, the front end portion of the upper surface of the radiation thermometer 21 is urged upward by a spring 213 suspended in a proper place on the upper surface of the box body 11. Therefore, the lever 212 has the spring 213.
The urging force of the eccentric cam 242 causes the eccentric cam 242 to rotate in a clockwise direction about the rotating shaft 211 and is pressed against the peripheral surface of the eccentric cam 242.

【0035】偏心カム242は、箱体11に回動可能に
支持された回動軸241に固着され、回動軸241と一
体的に回転するようになっている。回動軸241は、レ
バー212と偏心カム242との圧接点が最下点にきた
とき、レバー212が光軸L1と平行になる位置に設け
られている。従って、放射温度計21の測温方向(光軸
L2)は、水平方向よりも下方向にチルト移動可能にな
っている。
The eccentric cam 242 is fixed to a rotary shaft 241 which is rotatably supported by the box body 11 and rotates integrally with the rotary shaft 241. The rotating shaft 241 is provided at a position where the lever 212 becomes parallel to the optical axis L1 when the pressure contact between the lever 212 and the eccentric cam 242 reaches the lowest point. Therefore, the temperature measuring direction of the radiation thermometer 21 (optical axis L2) can be tilted downward relative to the horizontal direction.

【0036】回動軸241は、ギヤードモータ243の
出力軸と一体となっており、ギヤードモータ243の駆
動によって回動軸241と偏心カム242とを回転し、
これにより放射温度計21の測温方向が変化する。放射
温度計21の測温方向は、レバー212の水平軸(回動
軸211を通る光軸L1に平行な軸)に対する傾斜角γ
を調整して制御される。
The rotary shaft 241 is integrated with the output shaft of the geared motor 243, and the rotary shaft 241 and the eccentric cam 242 are rotated by the drive of the geared motor 243.
As a result, the temperature measurement direction of the radiation thermometer 21 changes. The temperature measurement direction of the radiation thermometer 21 is an inclination angle γ with respect to the horizontal axis of the lever 212 (axis parallel to the optical axis L1 passing through the rotation axis 211).
Is adjusted and controlled.

【0037】なお、上記傾斜角γが0°となる偏心カム
242の回転位置(最小半径となる周面位置Pr1が最
上点になる位置)を回転基準位置とすると、上記傾斜角
γは、偏心カム242の上記回転基準位置からの回転角
ηに従って変化するから、具体的には上記回転角ηを制
御して放射温度計21の測温方向が調整される。
When the rotational position of the eccentric cam 242 where the inclination angle γ is 0 ° (the peripheral surface position Pr1 where the minimum radius is the highest point) is the rotation reference position, the inclination angle γ is eccentric. Since it changes according to the rotation angle η of the cam 242 from the rotation reference position, specifically, the rotation angle η is controlled to adjust the temperature measurement direction of the radiation thermometer 21.

【0038】図6は、偏心カム242の回転角と測温方
向との関係を示す図である。放射温度計21の測温方向
が傾斜していると、光軸L1と光軸L2とが交差し、こ
の交点と狭角カラービデオカメラ22間の距離は、上記
傾斜角γの増加(又は減少)応じて減少(又は増加)す
る。
FIG. 6 is a diagram showing the relationship between the rotation angle of the eccentric cam 242 and the temperature measuring direction. If the temperature measuring direction of the radiation thermometer 21 is inclined, the optical axis L1 and the optical axis L2 intersect, and the distance between this intersection and the narrow-angle color video camera 22 increases (or decreases) of the inclination angle γ. ) Decrease (or increase) accordingly.

【0039】物体認識を高精度で行うためには、対象物
上の同一点で画像情報及び温度情報が取り込まれる必要
があるから、上記傾斜角γは上記交点が対象物上で生じ
るように制御される。この場合、上記距離は、狭角カラ
ービデオカメラ22から測定対象物までの距離(被写体
距離)Dとなり、上記傾斜角γは放射温度計21の測温
方向の補正角(視差補正角)となる。
In order to perform object recognition with high accuracy, it is necessary to capture image information and temperature information at the same point on the object. Therefore, the inclination angle γ is controlled so that the intersection point occurs on the object. To be done. In this case, the distance is the distance (subject distance) D from the narrow-angle color video camera 22 to the measurement object, and the inclination angle γ is the correction angle (parallax correction angle) of the radiation thermometer 21 in the temperature measurement direction. .

【0040】図6は、放射温度計21の測温方向を示す
変数として上記測定対象物までの距離Dを取り、回転角
ηと距離Dとの関係を示している。
FIG. 6 shows the relationship between the rotation angle η and the distance D by taking the distance D to the object to be measured as a variable indicating the temperature measuring direction of the radiation thermometer 21.

【0041】同図において、回転角η=0°,360°
は、偏心カム242の最小半径となる周面位置Pr1が
最上点にあり、放射温度計21の測温方向(光軸L2)
は、傾斜角γが0°(狭角カラービデオカメラ22の光
軸L1と平行)となる位置である。また、同図では、偏
心カム242の回転方向を図中、反時計廻りを正として
おり、回転角ηが180°を少し越えた付近(偏心カム
242の最大半径となる周面位置Pr2が最上点を少し
越えた位置)でレバー212の傾斜角γは最大となる。
In the figure, the rotation angles η = 0 ° and 360 °
Indicates that the peripheral surface position Pr1 that is the minimum radius of the eccentric cam 242 is at the highest point, and the radiation thermometer 21 is in the temperature measurement direction (optical axis L2).
Is a position where the inclination angle γ is 0 ° (parallel to the optical axis L1 of the narrow-angle color video camera 22). Further, in the same figure, the rotation direction of the eccentric cam 242 is positive in the counterclockwise direction in the figure, and the rotation angle η slightly exceeds 180 ° (the peripheral surface position Pr2 which is the maximum radius of the eccentric cam 242 is the highest). The inclination angle γ of the lever 212 becomes maximum at a position slightly beyond the point).

【0042】測距回路25により測定対象物までの距離
Dが算出されると、この距離Dと図6から偏心カム24
2の回転角ηto(制御の目標とする回転角)が決定され
るから、偏心カム242を現在の回転角ηtから当該目
標の回転角ηtoに回転駆動することにより放射温度計2
1の測温方向の調整が行われる。
When the distance D to the object to be measured is calculated by the distance measuring circuit 25, the eccentric cam 24 is calculated from this distance D and FIG.
Since the rotation angle ηto of 2 (the target rotation angle of control) is determined, the radiation thermometer 2 is driven by rotating the eccentric cam 242 from the current rotation angle ηt to the target rotation angle ηto.
Adjustment of the temperature measurement direction of 1 is performed.

【0043】図4に戻り、注視点測定ユニットU1は、
箱体10内に旋回可能に取り付けられている。注視点測
定ユニットU1の旋回機構は、注視点測定ユニットU1
の注視方向をパン方向に移動させる中空の四角形の枠体
12、上記注視方向をチルト向に移動させる半円形に湾
曲したU字型のガイド部材13、上記枠体12の駆動機
構14及び上記ガイド部材13の駆動機構15から構成
されている。
Returning to FIG. 4, the gazing point measuring unit U1 is
It is attached so as to be rotatable inside the box 10. The turning mechanism of the gazing point measuring unit U1 is the gazing point measuring unit U1.
Hollow rectangular frame 12 for moving the gaze direction in the pan direction, a U-shaped guide member 13 curved in a semicircle for moving the gaze direction in the tilt direction, a drive mechanism 14 for the frame 12, and the guide. It is composed of a drive mechanism 15 for the member 13.

【0044】注視点測定ユニットU1に、図7に示すよ
うに、狭角カラービデオカメラ22の光軸L1をX軸と
するXYZ直交座標系を設定すると、箱体11の左右の
両側面であってY軸と交差する位置に回動軸111が回
動可能に突設され、注視点測定ユニットU1は、上記枠
体12の中空部内に嵌装され、上記回動軸111の先端
部を枠体12の側面に固定して枠体12に回動可能に支
持されている。なお、回動軸111を箱体11に固設
し、回動軸111の先端部を枠体12に回動可能に支持
させるようにしてもよい。なお、Y軸及びZ軸は、狭角
カラービデオカメラ22に内蔵された長方形状の撮像素
子222の横方向の辺と縦方向の辺とにそれぞれ平行に
なっている。
As shown in FIG. 7, the XYZ Cartesian coordinate system having the optical axis L1 of the narrow-angle color video camera 22 as the X-axis is set in the gazing point measuring unit U1. And a gazing point measuring unit U1 is fitted in the hollow portion of the frame body 12, and the tip end portion of the turning shaft 111 is a frame. It is fixed to the side surface of the body 12 and is rotatably supported by the frame body 12. It should be noted that the rotating shaft 111 may be fixed to the box body 11, and the tip end portion of the rotating shaft 111 may be rotatably supported by the frame body 12. The Y-axis and the Z-axis are parallel to the horizontal side and the vertical side of the rectangular image sensor 222 built in the narrow-angle color video camera 22, respectively.

【0045】狭角カラービデオカメラ22の光軸L1が
正面方向(広角カラービデオカメラ28の光軸L0と平
行な方向)を向いているときのX軸、Y軸及びZ軸で構
成される直交座標系をUVW座標系とすると(図7参
照)、枠体12は、上下の両側面の中央位置(UVW座
標のW軸が交差する位置)にプーリ142,143が固
着された回動軸141が突設され、この回動軸141が
箱体10の天板と底板とにそれぞれ回動可能に支持され
て、パン方向に回動可能になされている。これにより枠
体12をW軸の廻りに回動させて注視点測定ユニットU
1がパン方向に移動するようになっている。
The optical axis L1 of the narrow-angle color video camera 22 is orthogonal to the X-axis, Y-axis, and Z-axis when the optical axis L1 faces the front direction (parallel to the optical axis L0 of the wide-angle color video camera 28). If the coordinate system is the UVW coordinate system (see FIG. 7), the frame body 12 has a rotating shaft 141 in which pulleys 142 and 143 are fixed at central positions of the upper and lower side surfaces (positions where the W axis of the UVW coordinate intersects). The rotation shaft 141 is rotatably supported by the top plate and the bottom plate of the box body 10 and is rotatable in the pan direction. As a result, the frame body 12 is rotated around the W axis to fix the gazing point measuring unit U.
1 moves in the pan direction.

【0046】また、上記枠体12の外側には上記U字型
のガイド部材13が設けられている。ガイド部材13
は、枠体12の後側に湾曲したガイド部131が形成さ
れるように設けられている。ガイド部材13は、その両
端部の外側にプーリ152,153が固着された回動軸
151が突設され、この回動軸151を、箱体10の左
右の両側板であって上記UVW座標系のV軸が交差する
位置にそれぞれ回動可能に支持させて箱体10内に取り
付けられている。
Further, the U-shaped guide member 13 is provided outside the frame body 12. Guide member 13
Is provided so that a curved guide portion 131 is formed on the rear side of the frame body 12. The guide member 13 is provided with a rotating shaft 151, to which pulleys 152 and 153 are fixedly attached, on the outside of both ends of the guide member 13. The rotating shaft 151 serves as the left and right side plates of the box body 10 in the UVW coordinate system. Are mounted in the box body 10 so as to be rotatably supported at positions where the V axes intersect.

【0047】ガイド部材13の湾曲したガイド部131
には長手方向に沿ってガイド溝132が穿設され(図7
参照)、このガイド溝132には、箱体11の後側面で
あって光軸L1(X軸)が交差する位置に突設された棒
状の係合部材16が摺動可能に係合されている。すなわ
ち、図9に示すように、係合部材16の先端部に回動可
能に設けられた円筒状のコロ162がガイド部材13の
ガイド溝132に貫通されている。
The curved guide portion 131 of the guide member 13.
A guide groove 132 is formed along the longitudinal direction (see FIG. 7).
The rod-shaped engaging member 16 is slidably engaged with the guide groove 132 at the position where the optical axis L1 (X axis) intersects with the rear side surface of the box body 11. There is. That is, as shown in FIG. 9, a cylindrical roller 162 rotatably provided at the tip of the engaging member 16 penetrates the guide groove 132 of the guide member 13.

【0048】これによりガイド部材13をV軸の廻りに
回動させると、係合部材16が回動し、注視点測定ユニ
ットU1がY軸の廻りに回動して放射温度計21及び狭
角カラービデオカメラ22の注視方向がチルト方向に移
動するようになっている。
As a result, when the guide member 13 is rotated around the V axis, the engagement member 16 is rotated, and the gazing point measuring unit U1 is rotated around the Y axis to rotate the radiation thermometer 21 and the narrow angle. The gazing direction of the color video camera 22 moves in the tilt direction.

【0049】箱体10内であって枠体12の後方位置に
は、上記プーリ142,143の回動軸141と平行に
軸144が回動可能に取り付けられている。この軸14
4の両端部であってプーリ142,143との平行位置
にプーリ145,146が固着され、更にプーリ145
の近傍位置にギヤ147が固着されている。プーリ14
2とプーリ145間及びプーリ143とプーリ146間
にはそれぞれタイミングベルトTB1,TB2が架設さ
れ、ギヤ147にはギヤードモータ149の駆動ギヤ1
48が噛合されている。また、タイミングベルトTB1
には枠体12のパン方向の回転角を検出するパン回転角
検出器17が噛合されている。
A shaft 144 is rotatably attached to the rear of the frame body 12 in the box body 10 in parallel with the rotary shaft 141 of the pulleys 142 and 143. This axis 14
4, the pulleys 145 and 146 are fixed to the positions parallel to the pulleys 142 and 143 at both ends, and the pulley 145
The gear 147 is fixed at a position near the position. Pulley 14
2 and the pulley 145, and between the pulley 143 and the pulley 146, timing belts TB1 and TB2 are installed, respectively, and the gear 147 includes the drive gear 1 of the geared motor 149.
48 is meshed. Also, the timing belt TB1
A pan rotation angle detector 17 for detecting the rotation angle of the frame body 12 in the pan direction is meshed with.

【0050】また、上記プーリ152,153の回転軸
151と平行に軸154が回動可能に取り付けられ、こ
の軸154の両端部であってプーリ152,153との
平行位置にプーリ155,156が固着され、更にプー
リ156の近傍位置にギヤ157が固着されている。プ
ーリ152とプーリ155間及びプーリ153とプーリ
156間にはそれぞれタイミングベルトTB3,TB4
が架設され、ギヤ157にはギヤードモータ159の駆
動ギヤ158が噛合されている。また、タイミングベル
トTB3には枠体12のチルト方向の回転角を検出する
チルト回転角検出器18が噛合されている。
A shaft 154 is rotatably mounted in parallel with the rotary shaft 151 of the pulleys 152, 153, and pulleys 155, 156 are provided at both ends of the shaft 154 in parallel with the pulleys 152, 153. The gear 157 is fixed and further fixed to a position near the pulley 156. Timing belts TB3 and TB4 are provided between the pulleys 152 and 155 and between the pulleys 153 and 156, respectively.
And a drive gear 158 of a geared motor 159 is meshed with the gear 157. A tilt rotation angle detector 18 that detects the rotation angle of the frame body 12 in the tilt direction is meshed with the timing belt TB3.

【0051】上記プーリ142,143,145,14
6、軸144、ギヤ147、ギヤードモータ149及び
パン回転角検出器17は、枠体12の駆動機構、すなわ
ち、注視点測定ユニットU1のパン方向の駆動機構を構
成し、上記プーリ152,153,155,156、軸
154、ギヤ157、ギヤードモータ159及びチルト
回転角検出器18は、ガイド部材13の駆動機構、すな
わち、注視点測定ユニットU1のチルト方向の駆動機構
を構成している。
The above pulleys 142, 143, 145, 14
6, the shaft 144, the gear 147, the geared motor 149, and the pan rotation angle detector 17 constitute a drive mechanism of the frame body 12, that is, a pan-direction drive mechanism of the gazing point measurement unit U1, and the pulleys 152, 153, and The reference numerals 155, 156, the shaft 154, the gear 157, the geared motor 159, and the tilt rotation angle detector 18 constitute a drive mechanism of the guide member 13, that is, a drive mechanism in the tilt direction of the gazing point measurement unit U1.

【0052】上記パン回転角検出器17及びチルト回転
角検出器18は、それぞれタイミングベルトTB1とタ
イミングベルトTB3の移動量を検出するもので、パン
/チルト位置検出器27に相当している。パン回転角検
出器17及びチルト回転角検出器18の検出データは、
不図示の制御ケーブルによりCPU(I)29に出力され
る。CPU(I)29は、上記検出データを用いてプーリ
142又はプーリ153の回転量を演算し、更にこの演
算結果から光軸L1の正面方向(広角カメラの光軸L2
と平行な方向)に対する現在のパン方向の回転角αとチ
ルト方向の回転角θとを検出する。
The pan rotation angle detector 17 and the tilt rotation angle detector 18 detect the movement amounts of the timing belt TB1 and the timing belt TB3, respectively, and correspond to the pan / tilt position detector 27. The detection data of the pan rotation angle detector 17 and the tilt rotation angle detector 18 are
It is output to the CPU (I) 29 by a control cable (not shown). The CPU (I) 29 calculates the rotation amount of the pulley 142 or the pulley 153 using the above detection data, and further, based on the calculation result, the front direction of the optical axis L1 (optical axis L2 of the wide-angle camera).
The current rotation angle α in the pan direction and the rotation angle θ in the tilt direction with respect to the (direction parallel to) are detected.

【0053】そして、注視点測定ユニットU1の注視方
向の制御(光軸L1のパン方向又はチルト方向の移動制
御)は、上記回転角α(又は回転角θ)に基づいてギヤ
ードモータ149(又はギヤードモータ159)の駆動
を制御することにより行われる。
Then, the control of the gaze direction of the gaze point measuring unit U1 (the movement control of the optical axis L1 in the pan direction or the tilt direction) is performed based on the rotation angle α (or the rotation angle θ). This is performed by controlling the driving of the motor 159).

【0054】次に、上記構成において、注視点測定ユニ
ットU1をチルト方向に傾けた状態(角度θ≠0の状
態)でパン方向の移動を行ったときの光軸L1の軌跡に
ついて図7及び図8を用いて説明する。
Next, in the above configuration, the locus of the optical axis L1 when the gazing point measuring unit U1 is tilted in the tilt direction (angle θ ≠ 0) and moved in the pan direction is shown in FIGS. This will be described using 8.

【0055】図7から明らかなように、枠体12をW軸
の廻りに回転させると、注視点測定ユニットU1もW軸
の廻りに回転し、注視点測定ユニットU1の後側面から
突出された係合部材16もW軸の廻りを回転する。この
とき、係合部材16は、ガイド部材13のガイド溝13
2に係合し、このガイド溝132に沿って摺動するの
で、係合部材16と同軸上にある光軸L1は、常にガイ
ド溝132及びV軸を含む平面内を移動する。
As is apparent from FIG. 7, when the frame body 12 is rotated around the W axis, the gazing point measuring unit U1 also rotates around the W axis and is projected from the rear side surface of the gazing point measuring unit U1. The engaging member 16 also rotates around the W axis. At this time, the engagement member 16 has the guide groove 13 of the guide member 13.
The optical axis L1 coaxial with the engaging member 16 always moves in a plane including the guide groove 132 and the V axis because the optical axis L1 is engaged with the guide groove 132 and slides along the guide groove 132.

【0056】角度θ=0°においては、ガイド溝132
及びV軸を含む平面は水平であるから、光軸L1はUV
平面内を移動するが、角度θ≠0°においては、ガイド
溝132及びV軸を含む平面は水平面に対して角度θだ
け傾斜するから、光軸L1は、水平面から角度θだけ傾
斜した平面内を移動する。
When the angle θ = 0 °, the guide groove 132
And the plane including the V axis is horizontal, the optical axis L1 is UV.
Although it moves in the plane, when the angle θ ≠ 0 °, the plane including the guide groove 132 and the V axis is inclined by the angle θ with respect to the horizontal plane, so that the optical axis L1 is in the plane inclined by the angle θ from the horizontal plane. To move.

【0057】図8において、S1はUVW座標における
U軸とV軸とからなるUV平面である。また、S2は、
狭角カラービデオカメラ22の注視方向の前方に仮想的
に設けられた、上記水平面S1と直交するV軸とW軸と
からなる垂直面である。x軸及びy軸は垂直面S2上に
設けられた直交座標で、x軸は水平面S1と垂直面2と
が交差する直線であり、y軸はU軸と垂直面S2との交
点O′を通るx軸に垂直な直線である。従って、垂直面
S2はV軸とW軸とからなるVW平面に平行で、y軸
は、W軸と平行になっている。
In FIG. 8, S1 is a UV plane consisting of a U axis and a V axis in UVW coordinates. Also, S2 is
It is a vertical surface that is virtually provided in front of the narrow-angle color video camera 22 in the gazing direction and that is composed of a V axis and a W axis that are orthogonal to the horizontal plane S1. The x-axis and the y-axis are orthogonal coordinates provided on the vertical plane S2, the x-axis is a straight line where the horizontal plane S1 and the vertical plane 2 intersect, and the y-axis is the intersection O'of the U-axis and the vertical plane S2. It is a straight line perpendicular to the passing x-axis. Therefore, the vertical surface S2 is parallel to the VW plane composed of the V axis and the W axis, and the y axis is parallel to the W axis.

【0058】また、S点は、狭角カラービデオカメラ2
2の光軸L1を正面方向(光軸L1がU軸と一致する方
向)の位置から仰角θだけ上側にチルト移動させたとき
の該光軸L1と垂直面S2との交点である。すなわち、
旋回制御の初期位置(θ=α=0°の位置)からガイド
部材13をV軸を中心に、図中、時計廻りに角度θだけ
回動したときの光軸L1と垂直面S2との交点である。
The point S is a narrow-angle color video camera 2
2 is an intersection of the optical axis L1 and the vertical surface S2 when the optical axis L1 is tilted upward from the position in the front direction (direction in which the optical axis L1 coincides with the U axis) by an elevation angle θ. That is,
An intersection point between the optical axis L1 and the vertical surface S2 when the guide member 13 is rotated clockwise by an angle θ in the drawing from the initial position (θ = α = 0 °) of the turning control around the V axis. Is.

【0059】R点は、狭角カラービデオカメラ22の光
軸L1を正面方向の位置から仰角θだけU軸に対して上
側にチルト移動させ、更に角度αだけU軸に対して反時
計方向にパン移動させたときの該光軸L1と垂直面S2
との交点である。すなわち、初期位置からガイド部材1
3を角度θだけ回動させた後、枠体12をW軸を中心と
して反時計廻りに角度αだけ回動したときの光軸L1と
垂直面S2との交点である。
At point R, the optical axis L1 of the narrow-angle color video camera 22 is tilted upward from the position in the front direction with respect to the U axis by an elevation angle θ, and is further counterclockwise with respect to the U axis by an angle α. The optical axis L1 and the vertical plane S2 when the pan is moved
Is the intersection with That is, the guide member 1 from the initial position
This is the intersection of the optical axis L1 and the vertical plane S2 when the frame 12 is rotated counterclockwise about the W axis by an angle α after rotating 3 by the angle θ.

【0060】ガイド部材13の回動角θを保持した状態
で枠体12をW軸の廻りに回動させたときの光軸L1と
垂直面S2との交点Rの軌跡は、光軸L1がガイド溝1
32及びV軸を含む平面内にあるから、この平面、すな
わち、UVW座標の原点OとS点及びR点とを含む平面
S3と垂直面S2との交線Hで表される。一方、平面S
3は水平面S1に対して上方に角度θだけ傾斜している
から、水平面S1と垂直面S2との交線x軸と上記交線
Hとは平行になり、R点は水平移動することがわかる。
When the frame 12 is rotated around the W axis while the guide member 13 is kept at the rotation angle θ, the locus of the intersection R between the optical axis L1 and the vertical plane S2 is the optical axis L1. Guide groove 1
Since it lies in a plane including 32 and the V axis, it is represented by an intersection line H between this plane, that is, the plane S3 including the origin O of the UVW coordinates and the points S and R and the vertical plane S2. On the other hand, the plane S
Since 3 is inclined upward by an angle θ with respect to the horizontal plane S1, it can be seen that the intersection line x axis between the horizontal plane S1 and the vertical plane S2 is parallel to the above intersection line H, and the point R moves horizontally. .

【0061】なお、本実施例では、半円形のガイド部材
13を用いたが、ガイド部材13の形状は、半円形に限
定されるものではなく、半楕円形に湾曲したものやコ字
型に屈曲したものでもよい。また、本実施例では、ガイ
ド溝132に係合部材16の先端部に回動可能に設けら
れた円筒状のコロ162を貫通させていたが、ガイド部
材13と係合部材16との係合構造はこの構造に限定さ
れるものではなく、例えば図10や図11に示す構造で
もよい。
Although the semicircular guide member 13 is used in the present embodiment, the shape of the guide member 13 is not limited to the semicircular shape, and may be a semielliptical curved shape or a U-shape. It may be bent. Further, in the present embodiment, the cylindrical roller 162 rotatably provided at the tip of the engaging member 16 is passed through the guide groove 132, but the guide member 13 and the engaging member 16 are engaged with each other. The structure is not limited to this structure, and may be the structure shown in FIGS. 10 and 11, for example.

【0062】図10に示す係合構造の第2実施例は、ガ
イド部材13を、図7におけるUVW座標の原点Oを中
心とする半円形に湾曲した棒部材で構成するとともに、
係合部材16の先端に、軸161の中心軸廻りに回転可
能なコロ保持体164を設け、更にこのコロ保持体16
4に、軸161の中心軸に直交する軸廻りに回転可能に
保持されたコロ163を設け、このコロ163を湾曲し
たガイド部材13に内側から当接させたものである。枠
体12をパン方向に回動させると、係合部材16のコロ
163がガイド部材13上を回転移動し、狭角カラービ
デオカメラ22の光軸L1が軸161とガイド部材13
とを含む平面内でパン方向移動をする。
In the second embodiment of the engaging structure shown in FIG. 10, the guide member 13 is constituted by a bar member which is curved in a semicircle centered on the origin O of the UVW coordinates in FIG.
A roller holder 164 rotatable around the central axis of the shaft 161 is provided at the tip of the engaging member 16, and the roller holder 16 is further provided.
4 is provided with a roller 163 rotatably held around an axis orthogonal to the central axis of the shaft 161, and the roller 163 is brought into contact with the curved guide member 13 from the inside. When the frame body 12 is rotated in the pan direction, the roller 163 of the engaging member 16 is rotationally moved on the guide member 13, and the optical axis L1 of the narrow-angle color video camera 22 is aligned with the shaft 161 and the guide member 13.
Move in the pan direction in the plane including and.

【0063】図11に示す係合構造の第3実施例は、図
10の変形例で、ガイド部材13は図11のものと同一
形状をなしている。図11のものは、係合部材16の先
端部に、軸161の中心軸廻りに回転可能なコロ保持体
168を設け、更にこのコロ保持体168に軸161の
中心軸に平行な軸165aの廻りに回転可能に保持され
たコロ165と、これら2つの軸161,165aに平
行かつこれら2つの軸161,165aのなす平面内で
移動可能な回転軸166aに回転可能に保持されたコロ
166とを、該ガイド部材13を挾持するように取り付
けたものである。
The third embodiment of the engagement structure shown in FIG. 11 is a modification of FIG. 10, and the guide member 13 has the same shape as that of FIG. In the structure shown in FIG. 11, a roller holder 168 rotatable around the central axis of the shaft 161 is provided at the tip of the engaging member 16, and the roller 168 is provided with a shaft 165a parallel to the central axis of the shaft 161. A roller 165 rotatably held around and a roller 166 rotatably held by a rotary shaft 166a parallel to these two shafts 161 and 165a and movable in a plane formed by these two shafts 161 and 165a. Is attached so as to hold the guide member 13.

【0064】コロ165の回転軸165aとコロ166
の回転軸166a間にはバネ167が設けられ、このバ
ネ167の付勢力によりコロ165,166がガイド部
材13に圧接されている。枠体12をパン方向に回動さ
せると、係合部材16のコロ165,166がガイド部
材13上を回転移動し、狭角カラービデオカメラ22の
光軸L1が、軸161とガイド部材13とを含む平面内
でパン方向移動をする。
Rotating shaft 165a of roller 165 and roller 166
A spring 167 is provided between the rotating shafts 166 a of the rollers 165, and the rollers 165 and 166 are pressed against the guide member 13 by the urging force of the spring 167. When the frame body 12 is rotated in the pan direction, the rollers 165 and 166 of the engagement member 16 rotate and move on the guide member 13, and the optical axis L1 of the narrow-angle color video camera 22 becomes the axis 161 and the guide member 13. Move in the pan direction within the plane containing.

【0065】また、本実施例では、注視点測定ユニット
U1の視界を広くするため、箱体10の幅寸法を可及的
に短くすべくパン方向及びチルト方向の駆動源であるギ
ヤードモータ149,159を注視点測定ユニットU1
の後方に配置するようにしたが、ギヤードモータ149
及びギヤードモータ159をぞれぞれ軸141と軸15
1に直結して枠体12とガイド部材13とを直接、駆動
するようにしてもよい。また、ギヤードモータに代えて
ステッピングモータを駆動源としてもよい。ステッピン
グモータを用いると、パン回転角検出器17及びチルト
回転角検出器18が不要になるので、構成を簡単にする
ことができる。
Further, in this embodiment, in order to widen the field of view of the gazing point measuring unit U1, the geared motor 149, which is a driving source in the pan direction and the tilt direction, is designed to reduce the width dimension of the box body 10 as much as possible. 159 is the gazing point measurement unit U1
The geared motor 149
And the geared motor 159, the shaft 141 and the shaft 15 respectively.
Alternatively, the frame 12 and the guide member 13 may be directly connected to each other and directly driven. Further, a stepping motor may be used as a drive source instead of the geared motor. When the stepping motor is used, the pan rotation angle detector 17 and the tilt rotation angle detector 18 are unnecessary, so that the configuration can be simplified.

【0066】図1に戻り、画像処理部3は、センサユニ
ット部2から入力される狭角カラービデオカメラ22の
撮像信号及び広角カラービデオカメラ28の撮像信号か
ら予め設定された所定の色、例えば肌色を抽出する抽出
する色抽出回路31(画像抽出手段)、上記撮像信号を
記憶する画像メモリ32及び画像処理部3の動作を集中
制御する制御回路(CPU(II))33(物体認識手段、
動作検出手段,判別手段)から構成されている。
Returning to FIG. 1, the image processing section 3 determines a predetermined color, for example, a preset color from the image pickup signals of the narrow-angle color video camera 22 and the wide-angle color video camera 28 which are input from the sensor unit section 2. A color extraction circuit 31 (image extraction means) for extracting a skin color, an image memory 32 for storing the image pickup signal, and a control circuit (CPU (II)) 33 (object recognition means for centrally controlling the operations of the image processing unit 3).
It is composed of motion detecting means and discriminating means).

【0067】色抽出回路31は、広角カラービデオカメ
ラ28で撮像された撮像信号(以下、広角画像信号とい
う)に対して色抽出処理を行う色画像処理回路311及
び領域抽出回路313と、狭角カラービデオカメラ22
で撮像された撮像信号(以下、狭角画像信号という)に
対して色抽出処理を行う色画像処理回路312及び領域
抽出回路314とを備えている。
The color extraction circuit 31 includes a color image processing circuit 311 and a region extraction circuit 313 which perform color extraction processing on an image pickup signal (hereinafter referred to as a wide angle image signal) picked up by the wide angle color video camera 28, and a narrow angle. Color video camera 22
A color image processing circuit 312 and a region extraction circuit 314 that perform color extraction processing on an image pickup signal imaged in (hereinafter referred to as a narrow-angle image signal).

【0068】色画像処理回路311,312は、雑音を
除去する平滑化回路(不図示)とRGB画像信号から色
相(H)、明度(L)及び彩度(S)の画像信号を変換
形成する色信号変換回路(不図示)とを有し、色画像処
理回路311は広角画像信号(RGB画像信号)をLS
H画像信号に変換し、色画像処理回路313は狭角画像
信号(RGB画像信号)をLSH画像信号に変換する。
変換されたLSH画像信号はそれぞれ領域抽出回路31
3と領域抽出回路314とに出力される。
The color image processing circuits 311 and 312 convert and form an image signal of hue (H), lightness (L) and saturation (S) from an RGB image signal and a smoothing circuit (not shown) for removing noise. A color signal conversion circuit (not shown), and the color image processing circuit 311 converts the wide-angle image signal (RGB image signal) to LS.
The color image processing circuit 313 converts the narrow-angle image signal (RGB image signal) into an LSH image signal.
Each of the converted LSH image signals has a region extraction circuit 31.
3 and the area extracting circuit 314.

【0069】領域抽出回路313,314は、HLS画
像信号を用いて撮影画面内に存在する予め設定された色
(例えば肌色)と同一色の領域を抽出するのもので、領
域抽出回路313は、広角画面GA1内における肌色領
域を抽出し、領域抽出回路314は、狭角画面GA2内
における肌色領域を抽出する。抽出された各画面GA
1,GA2内の肌色領域のデータは、CPU(II)33に
出力される。
The area extracting circuits 313 and 314 are for extracting an area having the same color as a preset color (for example, skin color) existing in the photographing screen using the HLS image signal. The area extracting circuit 313 is The skin color area in the wide-angle screen GA1 is extracted, and the area extraction circuit 314 extracts the skin color area in the narrow-angle screen GA2. Each screen GA extracted
The data of the skin color area in 1 and GA2 is output to the CPU (II) 33.

【0070】画像メモリ32には、CPU(II)33の制
御に基づき狭角カラービデオカメラ22及び広角カラー
ビデオカメラ28の撮影画像が記憶される。
The image memory 32 stores images taken by the narrow-angle color video camera 22 and the wide-angle color video camera 28 under the control of the CPU (II) 33.

【0071】CPU(II)33は、各種演算処理を行うた
めのメモリ331とタイマ332とを備えている。CP
U(II)33は、広角画像信号により抽出された各角肌色
領域について重心位置を演算し、更にこの演算結果とセ
ンサユニット部2から入力された対象物までの距離とか
ら注視点測定ユニットU1の旋回制御値を演算し、各肌
色領域に対応する対象物を狭角カラービデオカメラ22
で注視させるべく、この演算結果をセンサユニット部2
のCPU(I)29に出力する。
The CPU (II) 33 has a memory 331 and a timer 332 for performing various arithmetic processing. CP
The U (II) 33 calculates the barycentric position for each corner skin color region extracted by the wide-angle image signal, and further, based on the calculation result and the distance to the object input from the sensor unit 2, the gazing point measuring unit U1. Of the slewing control value is calculated, and the object corresponding to each skin color area is detected by the narrow-angle color video camera 22.
In order to make the operator pay attention to
To the CPU (I) 29.

【0072】これは、広角画像の撮影画面内に複数個の
肌色領域が抽出された場合は、いずれかの肌色領域が人
物の顔であると判定されるまで各肌色領域について顔判
定処理を順次、実行するためである。従って、CPU(I
I)33により現在対象としている肌色領域が人物の顔で
あると判定されなかった場合は、他の肌色領域に狭角カ
ラービデオカメラ22及び放射温度計21の注視方向が
変更される。そして、当該肌色領域の抽出、測温動作及
び顔判定処理が実行され、人物の顔と判定されるまで、
かかる動作が繰り返し行われる。
This is because when a plurality of skin color regions are extracted in the wide-angle image shooting screen, the face determination processing is sequentially performed on each skin color region until it is determined that one of the skin color regions is a human face. , To execute. Therefore, CPU (I
If it is not determined by I) 33 that the current skin color area is the face of a person, the gaze directions of the narrow-angle color video camera 22 and the radiation thermometer 21 are changed to another skin color area. Then, the extraction of the skin color area, the temperature measurement operation, and the face determination process are executed until the face is determined to be a person,
This operation is repeated.

【0073】また、CPU(II)33は、タイマ332を
用いて所定の周期(例えば1フレーム分の画像が取り込
まれる周期)で広角画像信号により抽出された各肌色領
域の重心位置の移動量を演算し、この移動量から移動し
ている肌色領域、すなわち、広角画面GA1内の移動し
ている人間を検出する。この検出結果は、該肌色領域に
対応する人物を狭角カラービデオカメラ22で追尾させ
るべくセンサユニット部2に出力される。
Further, the CPU (II) 33 uses the timer 332 to calculate the movement amount of the barycentric position of each skin color area extracted by the wide-angle image signal at a predetermined cycle (for example, a cycle in which an image for one frame is captured). The moving skin color area, that is, the moving person in the wide-angle screen GA1 is detected based on the calculated moving amount. The detection result is output to the sensor unit section 2 so that the person corresponding to the skin color area can be tracked by the narrow-angle color video camera 22.

【0074】更に、CPU(II)33は、狭角画像信号に
より抽出された肌色領域について重心位置、大きさ及び
形状等を演算し、これら演算結果とセンサユニット部2
から入力された温度情報、対象物までの距離情報とに基
づき当該抽出領域が人物の顔であるか否かを判定する。
そして、人物の顔であると判定されると、上記抽出領域
が狭角カラービデオカメラ22の撮影画面GA2の中央
に位置するように(人物の顔が画面中央に位置するよう
に)、センサユニット部2の注視方向の制御値を演算
し、この演算結果をセンサユニット部2に出力する。
Further, the CPU (II) 33 calculates the barycentric position, size, shape and the like of the skin color area extracted by the narrow-angle image signal, and outputs these calculation results and the sensor unit 2
It is determined whether or not the extraction area is a person's face based on the temperature information and the distance information to the target object input from.
When it is determined that the face is a person's face, the sensor unit is arranged so that the extraction region is located at the center of the shooting screen GA2 of the narrow-angle color video camera 22 (so that the face of the person is located at the screen center). The control value of the gaze direction of the unit 2 is calculated, and the calculation result is output to the sensor unit unit 2.

【0075】また、CPU(II)33は、人間と判断され
た対象物の追尾処理において、センサユニット部2から
入力される注視点測定ユニットU1の旋回情報(パン回
転角α及びチルト回転角θの情報)及び測定対象物まで
の距離Dの情報を所定周期で取り込むとともに、これら
旋回情報及び距離情報の変化パターンから当該注視して
いる人物が予め設定された所定の動作をしているか否か
判定する。
Further, the CPU (II) 33, in the tracking process of the object determined to be a human, turns information (pan rotation angle α and tilt rotation angle θ of the gazing point measuring unit U1 input from the sensor unit section 2). Information) and information on the distance D to the measurement object at a predetermined cycle, and whether or not the person who is gazing is performing a predetermined predetermined motion from the change pattern of the turning information and the distance information. judge.

【0076】注視している人物が所定の動作をしていれ
ば、情報出力部4に起動命令と共に人物の動作内容を出
力し、当該動作内容に応じた所定のメッセージを当該人
物に対して出力させる。例えば人物が物体認識装置1側
に近づいている場合、「いらっしゃいませ。」というメ
ッセージを出力させ、人物が物体認識装置1を横切って
いる場合は、「ちょっと待ってください。」というメッ
セージを出力させる。
If the person who is gazing is performing a predetermined action, the information output unit 4 outputs a start command together with the action content of the person, and outputs a predetermined message according to the action content to the person. Let For example, if a person is approaching the object recognition apparatus 1 side, a message "Welcome." Is output, and if a person is crossing the object recognition apparatus 1, a message "Please wait." Is output. .

【0077】情報出力部4(情報出力手段)は、所定の
動作をしている対象物に対して当該動作に応じた所定の
メッセージを出力するもので、表示装置41、音声出力
装置42及び制御回路(CPU(III))43から構成さ
れている。
The information output unit 4 (information output means) outputs a predetermined message corresponding to the motion of a target object performing a predetermined motion, and includes a display device 41, a voice output device 42, and a control unit. It is composed of a circuit (CPU (III)) 43.

【0078】表示装置41は、CRT(Cathode Ray Tu
be)、LCD(Liquid Crystal Display)等からなる表
示部と表示ドライバとを有し、上記メッセージを視覚的
に表示するものである。また、音声出力装置42はスピ
ーカとアンプとを有し、上記メッセージを聴覚的に出力
するものである。
The display device 41 is a CRT (Cathode Ray Tu).
be), an LCD (Liquid Crystal Display), and the like, and a display driver to visually display the above message. The voice output device 42 has a speaker and an amplifier, and outputs the above message audibly.

【0079】CPU(III)43は、情報出力部4の動作
を集中制御するもので、上記表示又は音声出力の処理を
行うためのメモリ431を有している。このメモリ43
1には、上記「いらっしゃいませ。」、「ちょっと待っ
て下さい。」等のメッセージが所定の動作に対応して予
め記憶されている。
The CPU (III) 43 centrally controls the operation of the information output section 4 and has a memory 431 for performing the above-mentioned display or voice output processing. This memory 43
In 1, a message such as “Welcome to you” or “Wait a moment” is stored in advance corresponding to a predetermined operation.

【0080】次に、本発明に係る物体認識装置1の動作
について説明する。図12は、物体認識装置1の動作を
示すメインフローチャートである。同図に示すフロー
は、監視対象から目的とする移動対象物(ここでは人間
の顔)を検出し、この対象物を追尾しつつ所定パターン
の動作をしている場合、当該動作に応じた所定のメッセ
ージを提供するようにしたものである。
Next, the operation of the object recognition device 1 according to the present invention will be described. FIG. 12 is a main flowchart showing the operation of the object recognition device 1. In the flow shown in the figure, a target moving object (here, a human face) is detected from the monitoring target, and when a predetermined pattern operation is performed while tracking the target object, a predetermined operation corresponding to the operation is performed. The message is provided.

【0081】なお、主要な処理については、各処理後の
画像と測温位置との関係を示す図を付している。すなわ
ち、V0は、画角調整後の狭角カラービデオカメラ22
から取り込まれたRGB画像の一例を示し、撮影画面の
中央に人物G1の顔が配置され、この人物G1の頭の上
部に測温位置Pc(同図、点線の○印で示す)が配置さ
れている。V1は、上記狭角カラービデオカメラ22の
注視方向を保持した状態で測温方向を調整したRGB画
像を示し、人物の顔の中央に測温位置Pcが調整されて
いる。
Regarding the main processing, a diagram showing the relationship between the image after each processing and the temperature measurement position is attached. That is, V0 is the narrow-angle color video camera 22 after adjusting the angle of view.
An example of an RGB image taken in from is shown, in which the face of the person G1 is placed in the center of the shooting screen, and the temperature measurement position Pc (indicated by a dotted circle in the figure) is placed above the head of the person G1. ing. V1 indicates an RGB image in which the temperature measurement direction is adjusted while the gaze direction of the narrow-angle color video camera 22 is maintained, and the temperature measurement position Pc is adjusted in the center of the person's face.

【0082】物体認識装置1に電源が供給されると、放
射温度計21の測温動作並びに狭角カラービデオカメラ
22及び広角カラービデオカメラ28の撮影動作が開始
され、先ず、図13に示すフローチャートに従って広角
カラービデオカメラ28で取り込まれた画像から肌色領
域が抽出される(#2)。
When power is supplied to the object recognizing device 1, the temperature measuring operation of the radiation thermometer 21 and the photographing operation of the narrow-angle color video camera 22 and the wide-angle color video camera 28 are started. First, the flowchart shown in FIG. The skin color area is extracted from the image captured by the wide-angle color video camera 28 according to (# 2).

【0083】すなわち、広角カラービデオカメラ28に
よりRGB画像V2が取り込まれる(#40)。続い
て、色画像処理回路311で画像信号内の雑音を除去す
べく画像信号の平滑化処理が施された後(#42)、予
め準備されている変換式に基づいて色信号変換処理(R
GB−LSH変換)が施されて(#44)、明度
(L),彩度(S),色相(H)の色の三属性を示す画
像信号が生成される。
That is, the RGB image V2 is captured by the wide-angle color video camera 28 (# 40). Subsequently, after the image signal is smoothed by the color image processing circuit 311 so as to remove noise in the image signal (# 42), the color signal conversion process (R
GB-LSH conversion) is performed (# 44), and an image signal indicating three attributes of color of lightness (L), saturation (S), and hue (H) is generated.

【0084】続いて、得られた色の三属性を示す画像信
号から領域抽出回路313で肌色と同一色の領域の抽出
処理が施される(#46)。この肌色領域の抽出は、予
め設定された肌色条件に基づいて行われる。すなわち、
この場合の肌色条件として、例えば、h0<H<h1,
s1<S<s2という域値が設定され、かかる域値で、
上記の色相信号(H)と彩度信号(S)とに対して2値
化処理が施される。
Subsequently, the area extraction circuit 313 extracts the area having the same color as the skin color from the obtained image signal indicating the three attributes of the color (# 46). The extraction of the skin color region is performed based on the skin color condition set in advance. That is,
As the skin color condition in this case, for example, h0 <H <h1,
A threshold value of s1 <S <s2 is set, and with such threshold value,
Binarization processing is performed on the hue signal (H) and the saturation signal (S).

【0085】なお、本実施例では、肌色領域を彩度
(S)と色相(H)とにより判定しているが、この他、
R出力/G出力とB出力/G出力とにより判定するよう
にしてもよい。
In this embodiment, the flesh color area is judged by the saturation (S) and the hue (H).
The determination may be made based on the R output / G output and the B output / G output.

【0086】次いで、上記2値化処理後の2枚の画像の
積が取られて、肌色と同一色の領域が抽出されて(#4
6)、リターンする。例えば、今、RGB画像V2で示
される環境画像が得られたとする。この環境画像には、
人物G1,G2の他に机、この机の上に置かれた梨G
4、壁に貼られたポスターG3といった色々なものが映
し出されているが、上記領域抽出処理を施すことによっ
て、肌色領域抽出画像V3の如き人物の顔H1,H2、
ポスター中の人物の顔H3、肌色に近い梨H4だけが抽
出される。
Next, the product of the two images after the binarization processing is taken, and the area of the same color as the skin color is extracted (# 4
6) Return. For example, it is assumed that the environment image shown by the RGB image V2 has been obtained. In this environmental image,
In addition to the figures G1 and G2, a desk and a pear G placed on this desk
4. Various objects such as the poster G3 stuck on the wall are displayed. By performing the area extraction processing, the human faces H1 and H2 such as the skin color area extraction image V3 are displayed.
Only the face H3 of the person and the pear H4 close to the skin color in the poster are extracted.

【0087】図12に戻って、次に、広角画像で抽出さ
れた肌色領域の移動から人物らしいと思われる対象物の
検出が行われる。
Returning to FIG. 12, next, an object which seems to be a person is detected from the movement of the skin color area extracted in the wide-angle image.

【0088】図14は、動いている人物の検出処理を示
すフローチャートである。先ず、抽出された各肌色領域
H1〜H4に領域識別用のラベルが付される(#5
0)。続いて、各ラベルの領域について領域位置を代表
する重心位置が演算される(#52)。この演算結果
は、CPU(II)33内のメモリ331に記憶される。
FIG. 14 is a flowchart showing the process of detecting a moving person. First, a label for area identification is attached to each of the extracted skin color areas H1 to H4 (# 5
0). Then, the barycentric position representing the area position is calculated for each label area (# 52). The calculation result is stored in the memory 331 in the CPU (II) 33.

【0089】ここで、領域位置の検出方法について説明
する。図15は、領域位置検出処理の手順を示すフロー
チャートで、同図には、2種類の領域位置検出方法の処
理を示している。
Here, a method of detecting the area position will be described. FIG. 15 is a flowchart showing the procedure of the area position detection processing, and FIG. 15 shows the processing of two types of area position detection methods.

【0090】同図(a)は、肌色領域を一色に塗りつぶ
し、この領域の重心を領域の位置情報として算出する方
法(以下、第1の方法という)を示し、同図(b)は、
肌色画像全体から最も肌色濃度の高い部分を領域の位置
情報として算出する方法(以下、第2の方法という)を
示している。また、同図(c)は、両領域位置検出方法
の各手順に対応する処理画像を、人物の顔H1の部分を
例に示したものである。
FIG. 10A shows a method (hereinafter referred to as the first method) of filling the skin color area with one color and calculating the center of gravity of this area as position information of the area, and FIG.
The figure shows a method (hereinafter, referred to as a second method) of calculating a portion having the highest flesh color density from the entire flesh color image as position information of the area. Further, FIG. 7C shows a processed image corresponding to each procedure of the both area position detection method, using the portion of the person's face H1 as an example.

【0091】まず、第1の方法について、図15(a)
を用いて説明する。肌色領域抽出画像V4は、通常、ノ
イズを含んだ画像であるため、抽出された肌色領域の周
辺にも肌色の孤立点がある(画像V4)。まず、この肌
色領域抽出画像V4に孤立点除去処理を施すことにより
(#60)、前記肌色領域周辺の孤立点が除去される
(画像V5)。
First, FIG. 15A shows the first method.
Will be explained. Since the flesh color region extraction image V4 is usually an image containing noise, isolated points of the flesh color are also present around the extracted flesh color region (image V4). First, an isolated point removal process is performed on the flesh color area extraction image V4 (# 60) to remove the isolated points around the flesh color area (image V5).

【0092】続いて、前記肌色領域H1〜H4に塗り潰
し処理を施し(#62)、各肌色領域H1〜H4が纏ま
った領域として抽出される(画像V6)。次に、抽出さ
れた各肌色領域を識別すべくラベル付けが行われる(#
64)。そして、そのラベルの順番に従って肌色領域が
選出され、各肌色領域について領域の重心Pが公知の重
心計算手法を用いて算出される(#66,V7)。この
算出された重心Pの座標は、当該肌色領域の検出領域位
置として用いられる。
Subsequently, the flesh color areas H1 to H4 are subjected to a painting process (# 62), and the flesh color areas H1 to H4 are extracted as an integrated area (image V6). Next, labeling is performed to identify each extracted skin color area (#
64). Then, the skin color area is selected according to the order of the label, and the center of gravity P of the area is calculated for each skin color area using a known center of gravity calculation method (# 66, V7). The coordinates of the calculated center of gravity P are used as the detection area position of the skin color area.

【0093】次に、第2の方法について図15(b)を
用いて説明する。先ず、肌色領域抽出画像V4が所要の
大きさのブロックに均等分割される(#70,V8)。
次いで、各ブロック領域内における肌色領域の密度が求
められる(#72,V9)。更に、求めた密度の内、最
大密度を有するブロック(画像V9内で、密度53のブ
ロック)が抽出される(#74,V10)。そして、こ
のブロックの密度と該抽出ブロックの周囲のブロックの
密度とを用いてモーメント計算が実行され、肌色領域の
位置座標Pが求められる(#76,V11)。この方法
によれば、前記孤立点除去処理や塗り潰し処理(#6
0,#62)を行う必要がない分、処理の簡略化が図れ
る。
Next, the second method will be described with reference to FIG. First, the skin color region extraction image V4 is equally divided into blocks of a required size (# 70, V8).
Next, the density of the skin color area in each block area is obtained (# 72, V9). Further, the block having the maximum density (the block having the density 53 in the image V9) is extracted from the obtained densities (# 74, V10). Then, the moment calculation is executed using the density of this block and the density of blocks around the extracted block, and the position coordinates P of the skin color region are obtained (# 76, V11). According to this method, the isolated point removal processing and the filling processing (# 6
Since it is not necessary to perform 0, # 62), the processing can be simplified.

【0094】図14に戻り、各ラベル領域の重心位置が
算出されると、続いて、各ラベル領域の移動量δが演算
される(#54)。各ラベル領域の移動量δは、重心位
置Pの座標をP(m,n)とすると、前回算出された重
心位置P(m1,n1)と今回算出された重心位置P
(m2,n2)とからδ=√((m2−m1)2+(n2
−n1)2)により算出される。
Returning to FIG. 14, when the barycentric position of each label area is calculated, the movement amount δ of each label area is subsequently calculated (# 54). The movement amount δ of each label area is such that, when the coordinates of the center of gravity position P are P (m, n), the previously calculated center of gravity position P (m1, n1) and the currently calculated center of gravity position P.
From (m2, n2) and δ = √ ((m2-m1) 2 + (n2
-N1) 2 ) is calculated.

【0095】続いて、算出された移動量δと予め設定さ
れた基準値δoとを比較して移動していると推定される
肌色領域(人物)があるか否かが判別される(#5
6)。すなわち、移動量δ≧基準値δoを満足する肌色
領域があるか否かが判別され、いずれの肌色領域も移動
量δ<基準値δoであれば(#56でNO)、移動して
いる人物はいないと判断して、#2に戻る。一方、いず
れかの肌色領域が移動量δ≧基準値δoであれば(#5
6でYES)、当該肌色領域に対応する対象物は、移動
している人物であると判断して、当該対象物に対して注
視点測温ユニットU1により注視及び測温処理を行わす
べくCPU(I)29に注視・測温命令を出力して(#5
8)、リターンする。
Subsequently, the calculated movement amount δ is compared with a preset reference value δo to determine whether or not there is a skin color region (person) estimated to be moving (# 5).
6). That is, it is determined whether or not there is a skin color area that satisfies the movement amount δ ≧ the reference value δo. If the movement amount δ <the reference value δo (NO in # 56), the moving person If not, go back to # 2. On the other hand, if any of the skin color areas has a movement amount δ ≧ reference value δo (# 5
6 is YES), the object corresponding to the skin color area is determined to be a moving person, and the CPU performs the gazing and temperature measurement processing on the object by the gazing point temperature measurement unit U1. (I) Output a gazing / temperature measurement command to 29 (# 5
8) Return.

【0096】なお、広角画像における上記色抽出処理及
び動いている人物の検出処理は、例えば1フレーム分の
画像が取り込まれる毎(1/30秒毎)に当該撮像画像
について行われ、いずれかのコマにおける撮像画像にお
いて動いている人物が検出されると、後述するように、
狭角カラービデオカメラ22による当該人物の追尾的な
撮像処理と放射温度計21による測温処理が行われる。
The color extraction processing and the moving person detection processing in the wide-angle image are performed on the picked-up image each time an image for one frame is captured (every 1/30 seconds). When a moving person is detected in the captured image in the frame, as will be described later,
The narrow-angle color video camera 22 performs tracking processing of the person and temperature measurement processing by the radiation thermometer 21.

【0097】図12に戻り、広角画像の色抽出処理によ
り動いている物体が検出されると、続いて、狭角カラー
ビデオカメラ22の注視方向が検出された人物の方向に
調整される(#6)。CPU(II)33は、移動している
肌色領域の重心位置Pから注視点測定ユニットU1の旋
回制御値(目標とするパン回転角αo及びチルト回転角
θo)を演算し、この演算結果を上記注視・測温命令と
ともに、CPU(I)29に出力する。CPU(I)29は入
力された旋回制御値に基づき注視点測定ユニットU1を
旋回させて狭角カラービデオカメラ22の注視方向を検
出された人物の方向に設定する。
Returning to FIG. 12, when a moving object is detected by the color extraction processing of the wide-angle image, the gaze direction of the narrow-angle color video camera 22 is subsequently adjusted to the direction of the detected person (# 6). The CPU (II) 33 calculates a turning control value (target pan rotation angle αo and tilt rotation angle θo) of the gazing point measurement unit U1 from the center of gravity position P of the moving skin color area, and the calculation result is described above. It is output to the CPU (I) 29 together with the gaze / temperature measurement command. The CPU (I) 29 turns the gazing point measuring unit U1 based on the input turning control value and sets the gaze direction of the narrow-angle color video camera 22 to the direction of the detected person.

【0098】続いて、狭角カラービデオカメラで撮像さ
れた狭角画像について色抽出処理が行われる(#8)。
図16は、狭角画像の色抽出処理を示すフローチャート
である。狭角画像の色抽出処理も広角画像の色抽出処理
と同様の手順で行われ、#80〜#86の各ステップで
は、狭角カラービデオカメラ22により取り込まれた画
像に対して図13の#40〜#46と同一の処理が行わ
れる。
Subsequently, color extraction processing is performed on the narrow-angle image captured by the narrow-angle color video camera (# 8).
FIG. 16 is a flowchart showing the color extraction processing of a narrow-angle image. The color extraction processing of the narrow-angle image is performed in the same procedure as the color extraction processing of the wide-angle image, and in each step of # 80 to # 86, the image captured by the narrow-angle color video camera 22 is represented by # in FIG. The same processing as 40 to # 46 is performed.

【0099】例えば、RGB画像V2において人物G1
が移動している人物として検出された場合、まず、肌色
領域H1の中心位置Pの方向に狭角カラービデオカメラ
22の注視方向を合わせて人物G1の画像が読み取られ
(#80、RGB画像V12参照)、色画像処理回路3
12で平滑化処理及び色信号変換処理が施された後(#
82,#84)、この画像V12から領域抽出回路31
4で肌色領域H5が抽出される(#86、抽出画像V1
3参照)。そして、抽出された肌色領域H5について、
図15に示す領域位置抽出検出方法により重心位置Pが
検出される(#88)。
For example, in the RGB image V2, the person G1
Is detected as a moving person, first, the image of the person G1 is read by aligning the gaze direction of the narrow-angle color video camera 22 with the direction of the center position P of the skin color area H1 (# 80, RGB image V12. ), Color image processing circuit 3
After the smoothing process and the color signal conversion process are performed in step 12 (#
82, # 84), the area extracting circuit 31 from the image V12.
A skin color area H5 is extracted in step 4 (# 86, extracted image V1).
3). Then, regarding the extracted skin color region H5,
The center of gravity position P is detected by the area position extraction and detection method shown in FIG. 15 (# 88).

【0100】続いて、図12に戻り、検出された肌色領
域H5の重心位置Pが撮影画面GA2の中心に位置して
いるか否かの判定が行われ(#10)、肌色領域H5の
重心位置が撮影画面GA2の中心に位置していないとき
は、狭角カラービデオカメラ22の注視方向が肌色領域
H5の重心位置Pとなるように、図17に示すフローチ
ャートに従って狭角カラービデオカメラ22をパン方向
又はチルト方向に回動させて当該注視方向が調整される
(#12)。
Subsequently, returning to FIG. 12, it is judged whether or not the detected barycentric position P of the skin color region H5 is located at the center of the photographing screen GA2 (# 10), and the barycentric position of the skin color region H5 is determined. When is not located at the center of the shooting screen GA2, the narrow-angle color video camera 22 is panned according to the flowchart shown in FIG. 17 so that the gaze direction of the narrow-angle color video camera 22 is the barycentric position P of the skin color area H5. The gaze direction is adjusted by rotating in the tilt direction or the tilt direction (# 12).

【0101】すなわち、まず、狭角カラービデオカメラ
22の注視方向が肌色領域H5の重心位置Pに一致する
パン方向の回転角αo′(以下、目標パン回転角とい
う)とチルト方向の回転角θo′(以下、目標チルト回
転角という)とが算出される(#90)。この演算は、
狭角画像をいくつかの領域に分割し、各領域に注射方向
を一致させるために必要なパン/チルト相対角度が設定
されたテーブルを用いて行われる。なお、このテーブル
とは異なるテーブルが広角画像においても用意されてお
り、#2の処理はこのテーブルを用いて行われる。
That is, first, the rotation angle αo 'in the pan direction (hereinafter referred to as the target pan rotation angle) and the rotation angle θo in the tilt direction in which the gaze direction of the narrow-angle color video camera 22 matches the barycenter position P of the skin color area H5. ′ (Hereinafter referred to as the target tilt rotation angle) is calculated (# 90). This operation is
The narrow-angle image is divided into several regions, and a pan / tilt relative angle required to match the injection direction in each region is used for setting a table. A table different from this table is prepared for wide-angle images, and the process of # 2 is performed using this table.

【0102】続いて、パン/チルト位置検出器27によ
り現在の狭角カラービデオカメラ22のパン方向の回転
角α(以下、現在パン回転角αという)とチルト方向の
回転角θ(現在チルト回転角θという)とが検出され
(#92)、更に現在パン回転角α及び現在チルト回転
角θがそれぞれ目標パン回転角αo′と目標チルト回転
角θo′と比較される(#94,#98,#100)。
Then, the pan / tilt position detector 27 is used to rotate the current rotation angle α of the narrow-angle color video camera 22 in the pan direction (hereinafter referred to as the current pan rotation angle α) and the rotation angle θ of the tilt direction (current tilt rotation). Angle θ) is detected (# 92), and the current pan rotation angle α and the current tilt rotation angle θ are respectively compared with the target pan rotation angle αo ′ and the target tilt rotation angle θo ′ (# 94, # 98). , # 100).

【0103】そして、現在パン回転角αが目標パン回転
角αo′に一致していなければ(#94でNO)、狭角
カラービデオカメラ22がパン方向に目標パン回転角α
o′まで回動され(#96)、現在チルト回転角θが目
標チルト回転角θo′に一致していなければ(#98,
#100でNO)、狭角カラービデオカメラ22がチル
ト方向に目標チルト回転角θo′まで回動され(#10
2)、現在パン回転角α及び現在チルト回転角θがそれ
ぞれ目標パン回転角αo′と目標チルト回転角θo′とに
一致すると(#94,#98,#100でYES)、注
視方向調整処理は終了する。
If the current pan rotation angle α does not match the target pan rotation angle αo '(NO in # 94), the narrow-angle color video camera 22 moves the target pan rotation angle α in the pan direction.
It is rotated to o '(# 96), and if the tilt rotation angle θ does not currently match the target tilt rotation angle θo'(# 98,
(NO in # 100), the narrow-angle color video camera 22 is rotated in the tilt direction to the target tilt rotation angle θo ′ (# 10).
2) If the current pan rotation angle α and the current tilt rotation angle θ match the target pan rotation angle αo ′ and the target tilt rotation angle θo ′, respectively (YES in # 94, # 98, and # 100), the gaze direction adjustment process Ends.

【0104】そして、#8,#10に戻り、再び、肌色
領域H5の重心位置Pが撮影画面GA2の中心に位置し
ているか否かの判定が行われる。
Then, returning to # 8 and # 10, it is determined again whether the barycentric position P of the skin color area H5 is located at the center of the photographing screen GA2.

【0105】肌色領域H5の重心位置Pが抽出画像V1
3の中心に位置しているとき、又は、狭角カラービデオ
カメラ22の注視方向の修正後、肌色領域H5の重心位
置が抽出画像V13の中心に位置したときは(#10で
YES)、測距回路25により狭角カラービデオカメラ
22から人物G1までの被写体距離Dが測定される(#
14)。なお、本実施例では、AF情報から被写体距離
を算出するようにしているが、かかる機構を有しない場
合や簡易方式として、抽出画像V13における肌色領域
の大きさから被写体距離を推定するようにしてもよい。
The barycentric position P of the skin color area H5 is the extracted image V1.
3 or when the center of gravity of the skin color area H5 is located in the center of the extracted image V13 after the gaze direction of the narrow-angle color video camera 22 is corrected (YES in # 10), the measurement is performed. The object distance D from the narrow-angle color video camera 22 to the person G1 is measured by the distance circuit 25 (#
14). Although the subject distance is calculated from the AF information in the present embodiment, the subject distance is estimated from the size of the skin color region in the extracted image V13 when such a mechanism is not provided or as a simple method. Good.

【0106】続いて、抽出された肌色領域H5の画面上
の大きさ及び形状が演算され(#16)、この大きさに
係る演算結果と被写体距離Dとから肌色領域H5の実際
の大きさが推定されて最終的に人間の顔であるか否かが
判別される(#18)。抽出された肌色領域H5が人間
の顔でないと判別されると(#18でNO)、#2に戻
り、人間の顔であると判別されると(#18でYE
S)、狭角カラービデオカメラ22の画角調整が行われ
る(#20)。この画角調整は、人間の顔と判断された
肌色領域を有する対象物の狭角の抽出画像V13におけ
る大きさが適正になるように調整するものである。
Subsequently, the size and shape of the extracted skin color area H5 on the screen are calculated (# 16), and the actual size of the skin color area H5 is calculated from the calculation result and the object distance D related to this size. It is estimated and finally it is determined whether or not it is a human face (# 18). If it is determined that the extracted skin color region H5 is not a human face (NO in # 18), the process returns to # 2, and if it is determined that it is a human face (YE in # 18).
S), the angle of view of the narrow-angle color video camera 22 is adjusted (# 20). This angle of view adjustment is performed so that the size of the narrow-angle extracted image V13 of the object having the flesh-colored area determined to be a human face becomes appropriate.

【0107】続いて、図18に示すフローチャートに従
って放射温度計21の測温方向の調整及び測温が行われ
る(#22,#24)。すなわち、測距回路25で検出
された被写体距離Dの情報から上述した偏心カム242
の制御の目標とする回転角ηto(以下、目標カム位置η
toという)が演算される(#110)。なお、目標カム
位置ηtoは、策定対象物までの距離Dと偏心カム242
の回転角度ηとは図6に示すような関係にあり、変換式
或いは予め被写体距離Dに対して目標カム位置が設定さ
れたテーブルを用いて演算される。
Then, the radiation thermometer 21 is adjusted in the temperature measuring direction and the temperature is measured according to the flow chart shown in FIG. 18 (# 22, # 24). That is, the eccentric cam 242 described above is obtained from the information on the subject distance D detected by the distance measuring circuit 25.
The target rotation angle ηto (hereinafter, target cam position η
is calculated (# 110). The target cam position ηto is the distance D to the formulation target and the eccentric cam 242.
6 has a relationship as shown in FIG. 6, and is calculated using a conversion formula or a table in which the target cam position is set for the subject distance D in advance.

【0108】続いて、パン/チルト位置検出器27によ
り現在の偏心カム242のカム位置ηt(以下、現在カ
ム位置ηtという)が検出され(#112)、更にこの
現在カム位置ηtが目標カム位置ηtoと一致しているか
否かが判別される(#114)。現在カム位置ηtが目
標カム位置ηtoと一致していなければ(#114でN
O)、偏心カム242が目標カム位置ηtoまで回動され
る(#116)。
Next, the pan / tilt position detector 27 detects the current cam position ηt of the eccentric cam 242 (hereinafter referred to as the current cam position ηt) (# 112), and further the current cam position ηt is set as the target cam position ηt. It is determined whether or not it matches ηto (# 114). If the current cam position ηt does not match the target cam position ηto (N in # 114,
O), the eccentric cam 242 is rotated to the target cam position ηto (# 116).

【0109】そして、現在カム位置ηtが目標カム位置
ηtoと一致しているか、或いは上記調整により一致する
と(#114でYES)、放射温度計21を作動させて
狭角カラービデオカメラ22が注視している対象物の肌
色領域の温度測定が行われる(#118)。
Then, if the current cam position ηt matches the target cam position ηto, or if it matches by the above adjustment (YES in # 114), the radiation thermometer 21 is operated and the narrow-angle color video camera 22 gazes. The temperature of the flesh-colored area of the target object is measured (# 118).

【0110】図12に戻り、測温方向の調整及び測温処
理が終了すると、続いて、この測定結果から当該肌色領
域が人間のものであるか否かが判別される(#26)。
Returning to FIG. 12, when the adjustment of the temperature measurement direction and the temperature measurement process are completed, it is subsequently determined from the measurement result whether or not the skin color region is a human (# 26).

【0111】この判定は、人間の肌の温度が約30℃
(t0とする)〜34℃(t1とする)であることから、
測定された温度Tがt0〜t1に入っているか否かにより
行われ、t0<T<t1であれば、人間らしいと判断され
る。すなわち、測定対象がポスターに描かれた人物像G
3や梨G4等の肌色領域H3,H4については、上記温
度範囲外であって人間らしいとは判断されず、測定対象
が肌色領域H1,H2についてのみ人間らしいと判断さ
れる。
In this judgment, the temperature of human skin is about 30 ° C.
Since it is (t 0 ) to 34 ° C. (t 1 ),
Measured temperature T is performed by whether or not entered t 0 ~t 1, if t 0 <T <t 1, it is determined that the human-like. That is, the measurement target is the person image G drawn on the poster.
The skin color areas H3 and H4 such as 3 and pear G4 are not judged to be human since they are outside the above temperature range, and only the skin color areas H1 and H2 are measured to be human.

【0112】測定温度Tが人間の肌温度範囲外であれば
(#26でNO)、#2に戻り、人間の温度範囲内であ
れば(#26でYES)、#28に移行し、人間と判断
された移動している対象物を追尾しつつ当該対象物の動
作内容が検出される。
If the measured temperature T is outside the human skin temperature range (NO in # 26), the process returns to # 2, and if it is within the human temperature range (YES in # 26), the process proceeds to # 28 and the human The motion content of the target object is detected while tracking the moving target object that is determined to be.

【0113】ここで、対象物の動作内容の判定方法につ
いて説明する。本実施例では、注目している対象物(人
間の顔)までの距離D、注視点測定ユニットUのパン回
転角α及びチルト回転角θの変化パターンを調べること
により対象物の動作を判別するようにしている。
Here, a method of determining the motion content of the object will be described. In the present embodiment, the motion of the target object is determined by examining the change pattern of the distance D to the target target object (human face), the pan rotation angle α and the tilt rotation angle θ of the gazing point measuring unit U. I am trying.

【0114】図19は、図7に示すUVW座標を用いて
対象物Qの位置を示したものである。同図より、対象物
Qの座標を(u,v,w)とすると、ベクトルOQの大
きさ|OQ|は対象物までの距離Dに相当し、ベクトル
OQのUV平面への正射影OQ′がU軸となす角度αは
パン回転角、ベクトルOQのUW平面への正射影OQ″
がU軸となす角度θはチルト回転角であるから、D=√
(u2+v2+w2)、tanθ=w/u、tanα=v/uと
なる。
FIG. 19 shows the position of the object Q using the UVW coordinates shown in FIG. From the figure, assuming that the coordinates of the object Q are (u, v, w), the size | OQ | of the vector OQ corresponds to the distance D to the object, and the orthogonal projection OQ ′ of the vector OQ onto the UV plane. Is the pan rotation angle, the orthogonal projection OQ ″ of the vector OQ on the UW plane.
Is the tilt rotation angle, so D = √
(U 2 + v 2 + w 2 ), tan θ = w / u, and tan α = v / u.

【0115】例えば注視点測定ユニットU1が下方に配
置され、斜め上方向に仰ぎ見て人間の顔を注視する場
合、注視している人間Qが一定速度で真っすぐ注視点測
定ユニットU1側に近づいてきたとき、当該人間Qを追
尾したときの距離D、チルト回転角θ及びパン回転角α
の変化は、図20のようになる。
For example, when the gazing point measuring unit U1 is arranged below and gazing obliquely upward to gaze at a human face, the gazing person Q approaches the gazing point measuring unit U1 side straight at a constant speed. , The tilt rotation angle θ and the pan rotation angle α when the person Q is tracked.
20 is changed as shown in FIG.

【0116】すなわち、人間Qは一定速度で注視点測定
ユニットU1に対して前後に移動するから、パン回転角
αは殆ど変化せず、距離Dは計測時間に応じて所定の割
合で減少するように変化し、チルト回転角θは人間Qが
所定範囲外にあるときは殆ど一定で、所定範囲内に入る
とは急激に上昇するように変化する。
That is, since the human Q moves forward and backward with respect to the gazing point measuring unit U1 at a constant speed, the pan rotation angle α hardly changes and the distance D decreases at a predetermined rate according to the measurement time. The tilt rotation angle θ is almost constant when the person Q is out of the predetermined range, and is rapidly increased when the person Q is in the predetermined range.

【0117】なお、注視している人間Qが一定速度で真
っすぐ注視点測定ユニットU1から遠ざかるときは、パ
ン回転角αは殆ど変化せず、距離Dは計測時間に応じて
所定の割合で増加するように変化し、チルト回転角θは
人間Qが所定範囲内にあるときは急激に減少し、所定範
囲外に外れたときは殆ど一定となるように変化する。
When the gazing person Q moves straight away from the gazing point measuring unit U1 at a constant speed, the pan rotation angle α hardly changes, and the distance D increases at a predetermined rate according to the measurement time. Thus, the tilt rotation angle θ rapidly decreases when the human Q is within the predetermined range, and is almost constant when the human Q is outside the predetermined range.

【0118】一方、注視している人間Qが注視点測定ユ
ニットU1の前を一定速度で真横に横切ったときは、当
該人間を追尾したときの距離D、チルト回転角θ及びパ
ン回転角αの変化は、図21のようになる。
On the other hand, when the gazing person Q crosses the front of the gazing point measuring unit U1 at a constant speed, right beside, the distance D, the tilt rotation angle θ and the pan rotation angle α when the person is tracked are The change is as shown in FIG.

【0119】すなわち、人間Qは一定速度で左右に移動
するから、チルト回転角θは殆ど変化せず、距離DはU
字型に変化し、パン回転角αは、−側から+側(又は+
側から−側)に0点を横切るように単調増加(又は単調
減少)するように変化する。
That is, since the human Q moves left and right at a constant speed, the tilt rotation angle θ hardly changes and the distance D is U.
The pan rotation angle α changes from the − side to the + side (or +).
From the side to the − side, it changes so as to monotonically increase (or monotonically decrease) so as to cross the 0 point.

【0120】従って、予め判別対象の動作に対応して距
離D、チルト回転角θ及びパン回転角αについてそれぞ
れ基準の変化パターンを設定しておき、注視している対
象物を一定時間追尾したときの距離D、チルト回転角θ
及びパン回転角αの変化パターンを検出し、これらの変
化パターンとそれぞれ基準の変化パターンとを比較する
ことにより対象物が特定の動作をしているか否かを判別
することができる。
Therefore, when the reference change patterns are set for the distance D, the tilt rotation angle θ, and the pan rotation angle α in advance corresponding to the operation to be discriminated, and the object being watched is tracked for a certain period of time. Distance D, tilt rotation angle θ
It is possible to determine whether or not the object is performing a specific motion by detecting the change patterns of the pan rotation angle α and comparing the change patterns with the reference change patterns.

【0121】本実施例では、距離D、チルト回転角θ及
びパン回転角αの変化パターンが図20のようであれ
は、対象物は近づいていると判別し、図21のようであ
れば、対象物は横切っていると判別するようにしてい
る。
In this embodiment, if the change pattern of the distance D, the tilt rotation angle θ and the pan rotation angle α is as shown in FIG. 20, it is judged that the object is approaching, and if it is as shown in FIG. The object is determined to cross.

【0122】図22は、対象物の動作内容を検出するフ
ローチャートである。動作内容の検出処理は、上述した
動いている対象物の認識処理と平行してCPU(II)33
で行われている。
FIG. 22 is a flow chart for detecting the operation content of the object. The operation content detection process is performed in parallel with the above-described moving object recognition process by the CPU (II) 33.
Is being done in.

【0123】動作内容の検出処理が開始されると、先
ず、各種フラグ、レジスタ等の初期化が行われた後、H
alt状態となる(#120,#122)。このHal
t状態は、タイマ332から所定周期(例えば1秒毎
等)で入力される割込信号の入力待ちの状態である。
When the operation content detection process is started, first, various flags and registers are initialized, and then H
The alt state is set (# 120, # 122). This Hal
The t state is a state of waiting for the input of an interrupt signal input from the timer 332 at a predetermined cycle (for example, every second).

【0124】タイマ332から割込信号が入力される
と、CPU(I)29から対象物までの距離D、現在パン
回転角α及び現在チルト回転角θが取り込まれ、これら
の情報は、メモリ331に配列されて記憶される(#1
24)。そして、既に取り込まれた情報と今回取り込ま
れた情報とから距離D、パン回転角α及びチルト回転角
θとの変化量が演算され、この演算結果から予め設定さ
れた接近動作又は横切動作を行っているか否かが判別さ
れる(#126)。
When the interrupt signal is input from the timer 332, the distance D from the CPU (I) 29 to the object, the current pan rotation angle α and the current tilt rotation angle θ are fetched, and these information are stored in the memory 331. Are arranged and stored in (# 1
24). Then, the amount of change in the distance D, the pan rotation angle α, and the tilt rotation angle θ is calculated from the information that has already been captured and the information that has been captured this time. It is determined whether or not it is performed (# 126).

【0125】なお、接近動作は、例えば下記数1の判別
式により判別され、横切動作は、例えば下記数2の判別
式により判別される。
The approaching motion is determined by, for example, the discriminant of the following formula 1, and the crossing motion is determined by the discriminant of the following formula 2, for example.

【0126】[0126]

【数1】 [Equation 1]

【0127】[0127]

【数2】 [Equation 2]

【0128】そして、動作内容が接近動作であると判別
されると、情報出力部4に起動命令(I)が出力され(#
128)、動作内容が横切り動作であると判別される
と、情報出力部4に起動命令(II)が出力されて(#13
0)、#122に戻り、動作内容が接近動作でも横切動
作でもない場合は、情報出力部4に起動命令を出力する
ことなく#122に戻り、上記動作内容の検出が継続さ
れる。
When it is determined that the operation content is the approaching operation, the start command (I) is output to the information output unit 4 (#
128), if it is determined that the operation content is a transverse operation, the start command (II) is output to the information output unit 4 (# 13
0), returning to # 122, and if the operation content is neither the approach operation nor the crossing operation, the operation returns to # 122 without outputting a start command to the information output unit 4, and the detection of the operation content is continued.

【0129】図23は、上記動作内容の判別処理に対応
して情報出力部4で並列に処理されている情報出力処理
のフローチャートである。
FIG. 23 is a flow chart of information output processing which is processed in parallel by the information output unit 4 in correspondence with the above-described operation content determination processing.

【0130】情報出力処理が開始されると、先ず、各種
フラグ、レジスタ等の初期化が行われ(#140)、画
像処理部3のCPU(II)33からの起動命令(I)又は起
動命令(II)の入力待ちの状態となる(#142)。
When the information output process is started, various flags, registers, etc. are first initialized (# 140), and the start command (I) or the start command from the CPU (II) 33 of the image processing unit 3 is started. The state of waiting for input of (II) is entered (# 142).

【0131】CPU(II)33から起動命令が入力される
と(#142でYES)、起動命令(I)であるか否かが
判別され(#144)、起動命令(I)であれば、メモリ
431から接近動作に対応した、例えば「いらっしゃい
ませ。」のメッセージが呼び出され、表示装置41に表
示されるとともに、音声出力装置42から発音される。
When the activation command is input from the CPU (II) 33 (YES in # 142), it is determined whether or not it is the activation command (I) (# 144), and if it is the activation command (I), For example, a message "Welcome to you." Corresponding to the approaching operation is called from the memory 431, displayed on the display device 41, and sounded by the voice output device 42.

【0132】一方、起動命令(II)であれば、メモリ43
1から横切動作に対応した、例えば「ちょっと待って下
さい。」のメッセージが呼び出され、表示装置41に表
示されるとともに、音声出力装置42から発音される。
On the other hand, if it is the start instruction (II), the memory 43
A message corresponding to the crossing action, for example, "Please wait a moment." Is called from 1, and is displayed on the display device 41 and sounded by the voice output device 42.

【0133】なお、上記実施例では、接近動作と横切動
作のみ検出するようにしたが、遠ざかる動作を検出し
て、例えば「有難うございました。」等のメッセージを
提供するようにしてもよい。
In the above embodiment, only the approaching movement and the crossing movement are detected. However, the moving away movement may be detected and a message such as "Thank you." May be provided.

【0134】[0134]

【発明の効果】以上説明したように、本発明によれば、
画像情報から目的とする対象物を認識するとともに、当
該対象物の動作を検出し、検出動作が予め設定された所
定の動作であれば、当該対象物に検出動作に応じた所定
の情報を出力するようにしたので、認識された人物等の
対象物に対し、注意を喚起したり、有益な情報が提供で
き、物体認識装置及び情報提供装置として有効に活用す
ることができる。
As described above, according to the present invention,
The target object is recognized from the image information, and the motion of the target object is detected. If the detection operation is a preset predetermined operation, the predetermined information corresponding to the detection operation is output to the target object. By doing so, it is possible to call attention to a recognized object such as a person or provide useful information, and it can be effectively used as an object recognition device and an information providing device.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る物体認識装置のブロック構成図で
ある。
FIG. 1 is a block configuration diagram of an object recognition device according to the present invention.

【図2】広角カラービデオカメラの画角と狹角カラービ
デオカメラの画角との関係を示す図である。
FIG. 2 is a diagram showing a relationship between an angle of view of a wide-angle color video camera and an angle of view of a narrow-angle color video camera.

【図3】狹角カラービデオカメラのAF機構の回路構成
図の一例を示す図である。
FIG. 3 is a diagram showing an example of a circuit configuration diagram of an AF mechanism of a horn angle color video camera.

【図4】センサユニット部の構造の一例を示す一部破断
した斜視図である。
FIG. 4 is a partially cutaway perspective view showing an example of a structure of a sensor unit portion.

【図5】注視点測定ユニットの内部構造を示す概略図で
ある。
FIG. 5 is a schematic diagram showing an internal structure of a gazing point measuring unit.

【図6】偏心カムの回転角度と測定対象物までの距離と
の関係を示す図である。
FIG. 6 is a diagram showing a relationship between a rotation angle of an eccentric cam and a distance to an object to be measured.

【図7】注視点測定ユニットに設定されたXYZ座標及
びUVW座標を示す図である。
FIG. 7 is a diagram showing XYZ coordinates and UVW coordinates set in a gazing point measuring unit.

【図8】注視点測定ユニットをパン方向に移動した場合
の注視方向の軌跡を説明するための図である。
FIG. 8 is a diagram for explaining a trajectory in a gaze direction when the gaze point measurement unit is moved in the pan direction.

【図9】ガイド部材と係合部材との係合構造の第1実施
例を示す断面図である。
FIG. 9 is a cross-sectional view showing a first embodiment of an engaging structure of a guide member and an engaging member.

【図10】ガイド部材と係合部材との係合構造の第2実
施例を示す断面図である。
FIG. 10 is a sectional view showing a second embodiment of the engagement structure of the guide member and the engagement member.

【図11】ガイド部材と係合部材との係合構造の第3実
施例を示す断面図である。
FIG. 11 is a cross-sectional view showing a third embodiment of the engagement structure of the guide member and the engagement member.

【図12】本発明に係る物体認識装置の認識動作を示す
メインフローチャートである。
FIG. 12 is a main flowchart showing a recognition operation of the object recognition device according to the present invention.

【図13】広角画像の色抽出処理を示すフローチャート
である。
FIG. 13 is a flowchart showing color extraction processing of a wide-angle image.

【図14】動いている色領域から物体を検出するフロー
チャートである。
FIG. 14 is a flowchart for detecting an object from a moving color area.

【図15】領域位置検出処理の手順を示すフローチャー
トで、(a)は肌色領域を塗り潰してその重心を位置情
報として算出するフロー、(b)は肌色画像全体から最
も肌色濃度の高い部分を位置情報として算出するフロ
ー、(c)は上記両領域位置検出方法の各ステップに対
する処理画像を示す図である。
FIG. 15 is a flowchart showing a procedure of region position detection processing, in which (a) is a flow of painting a skin color region and calculating the center of gravity thereof as position information, and (b) is a position of the highest skin color density from the entire skin color image. A flow calculated as information, (c) is a diagram showing a processed image for each step of the both area position detecting method.

【図16】狹角画像の色抽出処理を示すフローチャート
である。
FIG. 16 is a flowchart showing color extraction processing for a horn image.

【図17】注視方向の調整処理を示すフローチャートで
ある。
FIG. 17 is a flowchart showing a gaze direction adjustment process.

【図18】測温方向調整及び測温処理を示すフローチャ
ートである。
FIG. 18 is a flowchart showing temperature measurement direction adjustment and temperature measurement processing.

【図19】UVW座標における対象物の位置を示す図で
ある。
FIG. 19 is a diagram showing a position of an object in UVW coordinates.

【図20】物体が近づいているときの対象物までの距離
D、パン回転角θ及びチルト回転角αの変化を示す波形
図である。
FIG. 20 is a waveform diagram showing changes in the distance D to the object, the pan rotation angle θ, and the tilt rotation angle α when the object is approaching.

【図21】物体が横切っているときの対象物までの距離
D、パン回転角θ及びチルト回転角αの変化を示す波形
図である。
FIG. 21 is a waveform diagram showing changes in the distance D to the object, the pan rotation angle θ, and the tilt rotation angle α when the object is crossing.

【図22】動作内容を検出するフローチャートである。FIG. 22 is a flowchart for detecting operation content.

【図23】情報出力処理のフローチャートである。FIG. 23 is a flowchart of information output processing.

【符号の説明】[Explanation of symbols]

1 物体認識装置 2 センサユニット部 21 放射温度計 211 回動軸 212 レバー 213 バネ 22 狭角カラービデオカメラ(画像取込手段) 23 画角調整装置 24 測温方向移動装置 241 回動軸 242 偏心カム 243 ギヤードモータ 25 測距回路 26 注視方向移動装置 27 パン/チルト位置検出器 28 広角カラービデオカメラ 29 制御回路(CPU(I)) 291 メモリ 3 画像処理部 31 色抽出回路(画像抽出手段) 311,312 色画像処理回路 313,314 領域抽出回路 32 画像メモリ 33 制御回路(CPU(II))(動作検出手段,判別手
段) 331 メモリ 332 タイマ 4 情報出力部(情報出力手段) 41 表示装置 42 音声出力装置 43 CPU(III) 431 メモリ 5 基台 10,11 箱体 12 枠体 13 ガイド部材 14 パン方向駆動機構 142,143,145,146 プーリ 149 ギヤードモータ 15 チルト方向駆動機構 152,153,155,156 プーリ 159 ギヤードモータ 16 係合部材 17 パン回転角検出器 18 チルト回転角検出器 TB1〜TB4 タイミングベルト U1 注視点測定ユニット
DESCRIPTION OF SYMBOLS 1 Object recognition device 2 Sensor unit part 21 Radiation thermometer 211 Rotating shaft 212 Lever 213 Spring 22 Narrow-angle color video camera (image capturing means) 23 Angle of view adjusting device 24 Temperature measuring direction moving device 241 Rotating shaft 242 Eccentric cam 243 Geared motor 25 Distance measuring circuit 26 Gaze direction moving device 27 Pan / tilt position detector 28 Wide-angle color video camera 29 Control circuit (CPU (I)) 291 Memory 3 Image processing unit 31 Color extraction circuit (image extraction means) 311 312 color image processing circuit 313, 314 area extraction circuit 32 image memory 33 control circuit (CPU (II)) (motion detection means, determination means) 331 memory 332 timer 4 information output unit (information output means) 41 display device 42 audio output Device 43 CPU (III) 431 Memory 5 Base 10, 11 Box 12 Frame 1 Guide member 14 Pan direction drive mechanism 142,143,145,146 Pulley 149 Geared motor 15 Tilt direction drive mechanism 152,153,155,156 Pulley 159 Geared motor 16 Engagement member 17 Pan rotation angle detector 18 Tilt rotation angle detector TB1 to TB4 Timing belt U1 Gaze point measuring unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 // G01J 5/48 C ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 6 Identification number Office reference number FI technical display location // G01J 5/48 C

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 画像を取り込む画像取込手段と、画像取
込手段により取り込まれた画像の中から目的とする対象
物の画像を抽出する画像抽出手段と、抽出画像から対象
物を認識する物体認識手段と、認識された対象物の動作
を検出する動作検出手段と、検出された対象物の動作が
予め設定された所定の動作パターンに一致するか否かを
判別する判別手段と、対象物の動作が上記所定の動作パ
ターンと一致したとき、この動作パターンに対応して予
め設定された所定情報を出力する情報出力手段とを備え
たことを特徴とする物体認識装置。
1. An image capturing means for capturing an image, an image extracting means for extracting an image of a target object from the images captured by the image capturing means, and an object for recognizing the target object from the extracted image. Recognition means, motion detection means for detecting the motion of the recognized object, judgment means for judging whether the detected motion of the object matches a predetermined motion pattern set in advance, and the object And an information output unit that outputs predetermined information set in advance corresponding to the operation pattern when the operation of the above item matches the above-mentioned predetermined operation pattern.
JP6301144A 1994-12-05 1994-12-05 Object recognition device Pending JPH08161499A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6301144A JPH08161499A (en) 1994-12-05 1994-12-05 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6301144A JPH08161499A (en) 1994-12-05 1994-12-05 Object recognition device

Publications (1)

Publication Number Publication Date
JPH08161499A true JPH08161499A (en) 1996-06-21

Family

ID=17893325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6301144A Pending JPH08161499A (en) 1994-12-05 1994-12-05 Object recognition device

Country Status (1)

Country Link
JP (1) JPH08161499A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000054784A (en) * 2000-06-23 2000-09-05 이성환 system for tracking the movement of the multiple object using an Appearance Model Based on Temporal Color and controlling method therefore
JP2002335501A (en) * 2001-05-10 2002-11-22 Mitsubishi Electric Corp Portable display device
JP2006133991A (en) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd Authentication device
JP2007028282A (en) * 2005-07-19 2007-02-01 Megachips System Solutions Inc Camera system and intercom
JP2008015641A (en) * 2006-07-04 2008-01-24 Fujifilm Corp Method, apparatus and program for extracting human body area
KR100878190B1 (en) * 2002-03-11 2009-01-13 주식회사 엘지이아이 Object recognition method
JP2010055468A (en) * 2008-08-29 2010-03-11 Nikon Corp Image processing apparatus, and camera

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000054784A (en) * 2000-06-23 2000-09-05 이성환 system for tracking the movement of the multiple object using an Appearance Model Based on Temporal Color and controlling method therefore
JP2002335501A (en) * 2001-05-10 2002-11-22 Mitsubishi Electric Corp Portable display device
KR100878190B1 (en) * 2002-03-11 2009-01-13 주식회사 엘지이아이 Object recognition method
JP2006133991A (en) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd Authentication device
JP4711045B2 (en) * 2004-11-04 2011-06-29 富士ゼロックス株式会社 Authentication device
JP2007028282A (en) * 2005-07-19 2007-02-01 Megachips System Solutions Inc Camera system and intercom
JP4503505B2 (en) * 2005-07-19 2010-07-14 株式会社メガチップス Camera system and door phone
JP2008015641A (en) * 2006-07-04 2008-01-24 Fujifilm Corp Method, apparatus and program for extracting human body area
JP2010055468A (en) * 2008-08-29 2010-03-11 Nikon Corp Image processing apparatus, and camera

Similar Documents

Publication Publication Date Title
US7038715B1 (en) Digital still camera with high-quality portrait mode
US7181049B2 (en) Authentication object image-pickup method and device therefor
TWI466545B (en) Image capturing device and image monitoring method using the image capturing device
EP1981278B1 (en) Automatic tracking device and automatic tracking method
EP1429543B1 (en) Zoom method of a digital camera
WO2019179357A1 (en) Photographing method and device, intelligent equipment and storage medium
JP2004297518A (en) Authentication object image pick-up device and method thereof
WO2017034701A1 (en) Infrared lamp control for use with iris recognition authentication
US7030909B2 (en) Automatic photography
EP1387314A1 (en) Method and apparatus for picking up image of object being authenticated
JP2008015800A (en) Device for detecting impersonation
KR100326203B1 (en) Method and apparatus for face photographing and recognizing by automatic trading a skin color and motion
JP2003037766A (en) Iris imager
JP2001005948A (en) Iris imaging device
CN108154126B (en) Iris imaging system and method
JP2009237993A (en) Image monitoring device
CN110633612A (en) Monitoring method and system for inspection robot
JP5625443B2 (en) Imaging system and imaging apparatus
JPH08161499A (en) Object recognition device
US20040202353A1 (en) Authentication object image pick-up device and image pick-up method thereof
US10715787B1 (en) Depth imaging system and method for controlling depth imaging system thereof
CN114945955A (en) Iris image acquisition system for enlarging iris recognition range
JPH08161498A (en) Object recognition device
JPH08161500A (en) Object recognition device
JPH05297152A (en) Object recognizing device