JPH0723012A - Audience rating survey system - Google Patents

Audience rating survey system

Info

Publication number
JPH0723012A
JPH0723012A JP18751293A JP18751293A JPH0723012A JP H0723012 A JPH0723012 A JP H0723012A JP 18751293 A JP18751293 A JP 18751293A JP 18751293 A JP18751293 A JP 18751293A JP H0723012 A JPH0723012 A JP H0723012A
Authority
JP
Japan
Prior art keywords
information
viewer
person
image
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP18751293A
Other languages
Japanese (ja)
Inventor
Koichi Umezawa
光一 梅沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP18751293A priority Critical patent/JPH0723012A/en
Publication of JPH0723012A publication Critical patent/JPH0723012A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To firmly establish the system for generating a precese audience rating without depending on reports of TV viewers. CONSTITUTION:In this system, a television camera 3 for photographing an audience space of a television 1 is installed, and this system is provided with a segmenting part 5 for extracting discriminating information of a TV viewer at every image frame unit from a video signal of the camera 3, its storage part (memories 6, 7), a face recognizing part 8 for extracting a face image from a signal of the memory 6 and imparting an identification number, an overall deciding part 9 for deciding a state in the past and determining personal discriminating information, and a clock for obtaining the information for showing the time at that time therein, and provided with a transfer means for sending channel information of the television 1, and perfonal time zone information by the abovementioned personal discriminating information to an information processor. A person who views the television 1 is specified in advance and stored in advance as the personal discriminating information. Subsequently, from an image frame of a person who is looking at actually, the face image is extracted and by the overall deciding part 9, a specific person can be identified.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、テレビジョン放送を受
ける側の視聴者の動向を察知し集計するための視聴率調
査システムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an audience rating survey system for detecting and tabulating trends of viewers who receive television broadcasting.

【0002】[0002]

【従来の技術】従来、テレビジョン放送の視聴率調査を
行う場合、テレビジョン受像機(以下、テレビという)
の稼働占有時間とどのチャンネルが選択されていたかと
いうチャンネル情報を必要としていた。チャンネル情報
は、チャンネル選択機能と連動させるか、あるいは、テ
レビ内部で発生する同調用周波数を検出することで得て
いる。この占有時間情報とチャンネル情報を一定時刻ご
とに出力して情報処理し視聴率調査を行っている。
2. Description of the Related Art Conventionally, a television receiver (hereinafter referred to as a television) has been used for conducting a television broadcast audience rating survey.
It required channel information such as the operating occupation time and which channel was selected. The channel information is obtained by interlocking with the channel selection function or by detecting the tuning frequency generated inside the television. The occupation time information and the channel information are output at constant time intervals, information processing is performed, and the audience rating is investigated.

【0003】このような調査装置では、例えば、家庭内
において家族のだれが視聴していたかは把握できず、女
性向け番組を視聴していたのが幼児であったかも知れな
いし、極端な場合には単にテレビの電源が入っていて部
屋は無人であったかも知れないなどの問題点があった。
With such a survey device, for example, it may not be possible to know who is watching the family at home, and it may be the infant who was watching the program for women, or in extreme cases. There were some problems, such as the TV being on and the room unattended.

【0004】個人別の視聴状況を把握するために日記を
提出させる方法もあるが、記入データが必ずしも正確と
は限らない問題があった。個人別視聴状況を機械的に計
測する装置として、ピープルメータと呼ばれるものがあ
り、視聴者個人ごとにスイッチを持たせ、各人ごとに番
組の視聴開始時と終了時にスイッチを開閉して貰うこと
により測定を行う装置もあるが、スイッチの押し忘れが
多く、必ずしも正確なデータが採取できるとは限らない
ものであった。
There is also a method of submitting a diary to grasp the viewing situation for each individual, but there is a problem that the entered data is not always accurate. As a device that mechanically measures the viewing situation for each individual, there is a device called a people meter, and each viewer has a switch, and each person opens and closes the switch at the start and end of program viewing. Although there are devices that perform measurement by using, there are many cases where the switch is forgotten and accurate data cannot always be collected.

【0005】したがって、視聴者の申告に頼らないため
には、テレビにテレビカメラを備え付け、テレビカメラ
によって室内を撮影し、その取り込んだ映像からテレビ
を見ているかいないかを判定し、視聴者各人がだれであ
るかを認識することができれば良い。視聴者各人を判別
するには、テレビを見ている顔を対象にすることが考え
られる。
Therefore, in order not to rely on the viewer's declaration, the TV is equipped with a TV camera, the interior of the TV is photographed by the TV camera, and it is judged from the captured image whether or not the TV is viewed. It only needs to be able to recognize who a person is. In order to identify each viewer, it is possible to target the face watching TV.

【0006】顔の判定については、正面顔の静止写真か
ら認識を行う研究が多く、例えば、雑誌「計測と制御」
に掲載された解説記事「顔の識別技術」(南敏著、19
86年8月発行)に解説がある。また、最近の研究で
は、「電子情報通信学会論文誌」第J73−D−II巻
第9号掲載論文「3次元データより得られる横顔輪郭線
を用いた人間の顔の自動識別」(阿部亨他著、1990
年9月発行)において、顔の形状を3次元的に計測し、
この計測により得られた顔のデータを計算機の中で3次
元的に回転し、横顔画像を求めて、この横顔画像により
個人認識する手法を提案しており、高い認識率を得てい
る。
[0006] Regarding face determination, there are many studies on recognition from a still photograph of a front face. For example, the magazine "Measurement and Control"
Commentary article "Face identification technology" published by Satoshi Minami, 19
Published in August 1986). In addition, in recent research, "Electronic Information and Communication Engineers Transactions", J73-D-II, Vol. 9, "Automatic identification of human face using profile profile obtained from three-dimensional data" (Toru Abe) Other work, 1990
(September 2013), the shape of the face was measured three-dimensionally,
The face data obtained by this measurement is three-dimensionally rotated in a computer, a profile image is obtained, and a method for recognizing an individual by this profile image is proposed, and a high recognition rate is obtained.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、顔認識
を行う場合、上記の正面静止画像では、視聴者がテレビ
の前に正対しなければならなくなり、また、視聴者が移
動することを踏まえた動画像からの試みはあまりなく、
視聴者が横を向いていたり、新聞で顔が隠れていたりす
る場合などがあり、実用に不適である。また、3次元計
測は高精度にして識別能力を高くすることができるが、
準備段階として、周囲を暗くしてスリット光を照射する
必要があり、また、処理に要する時間がかかり過ぎるた
め、テレビの視聴状況調査に利用するには難しいもので
ある。
However, when face recognition is performed, in the above-mentioned front still image, the viewer must face directly in front of the television, and a moving image based on the fact that the viewer moves. There were not many attempts from the statue,
This is not suitable for practical use, since the viewer may be facing sideways or the face may be hidden in a newspaper. In addition, although three-dimensional measurement can be made highly accurate and discrimination ability can be improved,
As a preparatory step, it is necessary to illuminate with slit light with the surroundings darkened, and it takes too much time for processing, which is difficult to use for a television viewing situation survey.

【0008】本発明は、テレビカメラによって視聴者を
認識し、視聴者が動き回っていても、テレビの前にいる
複数人の視聴者の識別を確実に行い、チャンネル情報と
合わせ総合的に精度の高い視聴率を求められるようにし
た視聴率調査システムを提供することを目的とする。
The present invention recognizes a viewer with a television camera, and reliably identifies a plurality of viewers in front of the television even if the viewer is moving around. It is an object of the present invention to provide an audience rating survey system capable of demanding a high audience rating.

【0009】[0009]

【課題を解決するための手段】本発明は上記目的を達成
するために、テレビジョン受像機と、テレビジョン受像
機の視聴空間に向けられた視聴者画像入力手段と、前記
視聴者画像入力手段により抽出した画像フレームから切
り出された視聴者の識別情報を得る手段と、特定の視聴
者の識別情報をあらかじめ記憶する手段と、前記視聴者
画像入力手段により新たに抽出した視聴者の識別情報と
前期記憶手段により収納された特定の視聴者の識別情報
とを比較し同定する判定手段と、該判定手段に付加され
新たに抽出した視聴者の識別情報の入力信号の時間帯を
検出するための時計手段と、前記判定手段により得られ
た個人時間帯情報と前記テレビジョン受像機のチャンネ
ル情報とを情報処理装置へ送る伝達手段と、を設けたこ
とを特徴とする。なお、画像フレームとは一画面を構成
する信号要素に対応するものである。
In order to achieve the above-mentioned object, the present invention provides a television receiver, a viewer image input means directed to a viewing space of the television receiver, and the viewer image input means. Means for obtaining the identification information of the viewer cut out from the image frame extracted by, means for storing the identification information of the specific viewer in advance, and identification information of the viewer newly extracted by the viewer image input means Determination means for comparing and identifying the identification information of the specific viewer stored by the storage means for detecting the time zone of the input signal of the identification information of the viewer newly added to the determination means. A clock means and a transmission means for transmitting the personal time zone information obtained by the determination means and the channel information of the television receiver to the information processing apparatus are provided. The image frame corresponds to a signal element that constitutes one screen.

【0010】また、連続に抽出した複数の画像フレーム
間で、抽出した複数の識別情報が連続する位置で確認さ
れたとき、該連続する複数の識別情報に同一の識別番号
を付与して記憶する記憶手段と、識別番号を付与した新
たな人物と特定の視聴者とを同定して、前記識別番号ま
たは前記識別番号を付与した人物の記憶情報を、特定し
た視聴者の識別情報として置き換える判定手段を設け
る。または、判定手段において、同定されない識別番号
の識別情報を情報処理装置に送り、前記同定されない識
別番号を付与した人物が特定した視聴者と同一であるこ
とを判定したときに、前記伝達した個人時間帯情報と後
発の同定した個人時間帯情報とを対応させる信号を送出
する手段を設けたことを特徴とする。
Further, when a plurality of extracted identification information are confirmed at consecutive positions between a plurality of consecutively extracted image frames, the same identification number is given to the consecutive plurality of identification information and stored. Storage means, determination means for identifying a new person who has been given an identification number and a specific viewer, and replacing the identification number or stored information of the person who has been given the identification number as identification information for the specified viewer. To provide. Alternatively, in the determining means, the identification information of the unidentified identification number is sent to the information processing device, and when it is determined that the person to whom the unidentified identification number is given is the same as the identified viewer, the transmitted personal time It is characterized in that a means for transmitting a signal for associating the band information with the subsequently identified personal time band information is provided.

【0011】さらに、上記システムにおいて、情報処理
を行う側からの信号を受けて、時計手段の時刻を較正す
る手段を設けたことを特徴とする。
Further, the above system is characterized in that it is provided with means for calibrating the time of the clock means in response to a signal from the information processing side.

【0012】このほか、画像フレームから、視聴範囲内
に存在する人物の人数を計数し、または、視聴の態様を
識別し、この人数情報または視聴態様を表す情報を個人
時間帯情報と共に送出することを特徴とする。
In addition, the number of persons existing in the viewing range is counted from the image frame, or the viewing mode is identified, and the number-of-people information or the information indicating the viewing mode is transmitted together with the personal time zone information. Is characterized by.

【0013】また、前述の記憶させておく識別情報を得
るためには、特定の人物の識別情報を識別番号を付与し
て学習させると共に記憶し、該識別番号を付与した識別
情報を特定の視聴者の識別情報に置き換えるようにした
こと、および、各人物の位置確認装置を備え、学習時に
位置確認装置の出力から、画面フレーム中の各人物の画
像を同定するようにしたことを特徴とする。
Further, in order to obtain the above-mentioned identification information to be stored, the identification information of a specific person is given an identification number to be learned and stored, and the identification information to which the identification number is attached is specified for viewing. It is characterized in that it is replaced with the identification information of each person, and that each person's position confirmation device is provided, and the image of each person in the screen frame is identified from the output of the position confirmation device during learning. .

【0014】さらに、これらのシステムにおいて、該シ
ステムを複数設け、請求項1記載のシステムを複数設置
し、複数のテレビジョン受像機についての個人時間帯情
報およびチャンネル情報を総合判定し、複数台に関する
各個人の視聴データを一括して伝達することを特徴とす
る。
Furthermore, in these systems, a plurality of such systems are provided, a plurality of systems according to claim 1 are installed, and personal time zone information and channel information for a plurality of television receivers are comprehensively determined, and a plurality of them are related. The feature is that the viewing data of each individual is collectively transmitted.

【0015】なお、視聴者画像入力手段としてテレビカ
メラを使用し、このテレビカメラの映像信号から、各画
像フレームごとに識別情報としての顔画像を切り出し、
顔画像どうしの比較認識を行って、視聴者を同定し、時
々刻々の視聴者識別情報を得ると共に、各画像フレーム
間の視聴者の同一性を判定するものである。また、伝達
手段として電話回線を利用する。
A television camera is used as the viewer image input means, and a face image as identification information is cut out for each image frame from the video signal of the television camera.
By comparing and recognizing face images, a viewer is identified, viewer identification information is obtained every moment, and the identity of the viewer between image frames is determined. Also, a telephone line is used as a transmission means.

【0016】[0016]

【作用】本発明は上記の構成とすることによって、ま
ず、視聴者画像入力手段(テレビカメラ等)の映像信号
からいくつかの画像フレームをサンプリングして人物の
区別を行い、さらに、特定の視聴者の人物像から識別情
報としての顔画像を対象に記憶させておく。この記憶し
た比較識別情報には顔情報に対応して性別、年齢、職業
等を入力しておく。そして、画像フレームから入ってき
た顔画像を記憶させた顔画像と比較し同定することによ
って個人の識別情報から性別、年齢を知ることができ
る。このように順次、画像フレーム内の顔画像を同定し
てこの個人識別情報と視聴時間帯情報と同時刻の受像機
の受信状況の情報とを集計処理することで、視聴率に有
効な複数人からなる個人視聴率データを得ることができ
る。
According to the present invention, by adopting the above-mentioned structure, first, some image frames are sampled from the video signal of the viewer image input means (television camera or the like) to distinguish the person, and further, the specific viewing is performed. A face image as identification information is stored in the target from the person image of the person. Gender, age, occupation, etc. are input to the stored comparative identification information in correspondence with the face information. Then, by comparing and identifying the face image received from the image frame with the stored face image, the gender and age can be known from the identification information of the individual. In this way, the face images in the image frame are sequentially identified, and the personal identification information, the viewing time zone information, and the reception status information of the receiver at the same time are aggregated, thereby enabling a plurality of persons who are effective for the audience rating. It is possible to obtain the individual audience rating data.

【0017】個人識別情報の判定時に、同定されていな
い顔画像が記憶した顔画像といまだ一致しない場合に
は、そのまま識別番号をつけた人物として記憶され、未
確定の個人識別情報として伝達される。該未確定の個人
識別情報は、伝達前、または伝達後であっても抽出され
た画像フレームから得た顔画像が確実に記憶した特定の
視聴者の顔画像と同定された時に、過去の同人物のデー
タも一緒に移植される。このようにして個人識別情報を
追補するので、正確な視聴時の個人データが得られる。
In the determination of the personal identification information, if the unidentified face image still does not match the stored face image, it is stored as a person with an identification number as it is and transmitted as undetermined personal identification information. . The unidentified personal identification information is the same as the past when the facial image obtained from the extracted image frame is identified as the facial image of the particular viewer who is surely stored before or after the transmission. The data of the person is also ported together. Since the personal identification information is supplemented in this manner, accurate personal data at the time of viewing can be obtained.

【0018】また、画像フレーム単位では特定の個人を
同定できない場合には、判定を留保し、複数の画像フレ
ーム間の視聴者の同一性を利用して確実に個人識別を行
う。すなわち、過去から現在までの未確定の同一人物の
複数の顔情報のうち、確実に判定できる顔情報と比較す
ることができる。最適な顔情報は、視聴者が画面に対し
て正対している画像フレームであることが多い。
Further, when a specific individual cannot be identified in image frame units, the determination is reserved, and the identity of the viewer among a plurality of image frames is used to reliably identify the individual. That is, it is possible to compare with face information that can be reliably determined, among a plurality of face information of the same undetermined person from the past to the present. The optimum face information is often an image frame in which the viewer is facing the screen.

【0019】さらに、情報処理装置側から時間較正を行
うのでチャンネル情報と個人時間帯情報との時間のずれ
がなく、視聴している時間を正確に知ることができる。
また、部屋全体を撮影してモニタするので人数や視聴態
度まで把握することができる。また、複数人の視聴者が
数台の受像機を使用している場合、個人時間帯情報およ
びチャンネル情報を整理して一括して送ることにより、
情報処理を速やかに行うことができる。
Further, since the time calibration is carried out from the information processing device side, there is no time lag between the channel information and the personal time zone information, and the watching time can be accurately known.
Moreover, since the entire room is photographed and monitored, it is possible to grasp the number of people and the viewing attitude. Also, if multiple viewers are using several receivers, by organizing and sending personal time zone information and channel information in a batch,
Information processing can be performed promptly.

【0020】[0020]

【実施例】以下、本発明の実施例を添付図面に基づいて
説明する。図1に示すように、調査システムの構成は、
テレビ(テレビジョン受像機)1を含む11個の回路ブロ
ックから構成されている。先ず、テレビ1は、通常の映
像および音声を出力する機能に加え、電源のオン/オフ
状況と現在選択されているチャンネル情報を出力する機
能を有し、この信号を中央情報処理装置Aに送信する通
信装置2に出力するように結線されている。また、テレ
ビ1の画面に対する視聴空間を視野とするようなテレビ
カメラ(以下、カメラという)3がテレビ1の上に設置
される。カメラ3のレンズの方向は視聴者がテレビ1を
正対して見ている時に視聴者の顔が正面画像となるのが
良い。
Embodiments of the present invention will be described below with reference to the accompanying drawings. As shown in Figure 1, the structure of the survey system is
It is composed of 11 circuit blocks including a television (television receiver) 1. First, the television 1 has a function of outputting power on / off status and currently selected channel information in addition to a function of outputting normal video and audio, and transmits this signal to the central information processing apparatus A. It is connected so as to output to the communication device 2. In addition, a television camera (hereinafter, referred to as a camera) 3 having a viewing space for viewing the screen of the television 1 is installed on the television 1. With respect to the direction of the lens of the camera 3, it is preferable that the viewer's face be the front image when the viewer is looking directly at the television 1.

【0021】カメラ3の映像信号はフレームメモリ4に
入力される。映像信号は室内の動画像情報であり、適当
なサンプリング間隔で1フレーム分の画像が取り出さ
れ、フレーム単位でフレームメモリ4に貯えられる。サ
ンプリング間隔は、カメラ3のフレーム周期の整数倍で
あるが、視聴率計測精度を追求する目的ではできるだけ
短くし、処理速度の観点からはできるだけ長くする。実
際、15秒〜1分の時間間隔が上記二つの要求の妥協点と
して妥当な設計目標である。なお、後述するように、個
人追跡の目的ではサンプリング間隔を短く、個人認識の
目的ではサンプリング間隔を長くするような変更も可能
である。
The video signal of the camera 3 is input to the frame memory 4. The video signal is moving image information in the room, and an image for one frame is taken out at an appropriate sampling interval and stored in the frame memory 4 in frame units. Although the sampling interval is an integral multiple of the frame period of the camera 3, it should be as short as possible for the purpose of pursuing audience rating measurement accuracy, and as long as possible from the viewpoint of processing speed. In fact, a time interval of 15 seconds to 1 minute is a reasonable design goal as a compromise between the above two requirements. As will be described later, it is possible to change the sampling interval to be short for the purpose of individual tracking and to be long for the purpose of individual recognition.

【0022】切出し部5は、フレームメモリ4に貯えら
れた現在の画像フレームから、人物画像を検出し、その
部分を切出し、他は消去してメモリ6に送る。人物画像
の検出のためには、公知の技術により、画像フレームの
中の動きのある部分画像を検出し、顔画像の部分を検出
すれば良い。現在の画像フレームに複数の人物が存在す
る場合には、メモリ6にそれぞれの人物の画像を貯え
る。
The cutout unit 5 detects a human image from the current image frame stored in the frame memory 4, cuts out the portion, and erases the other portions and sends them to the memory 6. In order to detect the person image, a known partial technique may be used to detect a moving partial image in the image frame and to detect a face image portion. When there are a plurality of persons in the current image frame, the images of the persons are stored in the memory 6.

【0023】メモリ6の内部のデータ配置を図3に示
す。この設計例では、3人分の人物画像を貯えるものと
して設計してあるが、人数の変更は容易である。図3に
おいてアドレス200には現在の画像フレームにおいて
切り出された人数の数Nが格納されている(N=<
3)。201〜205は、第1の人物の画像の先頭アド
レスを表すポインタP1、画像の横サイズW1、縦サイ
ズH1、人物画像の中心座標X1、Y1、がそれぞれ格
納されている。先頭アドレスP1が1000バイト、横
サイズW1が40(画素)、縦サイズH1が60(画
素)とし、画像の1画素の濃淡値を1バイトで表すと
き、この第1の人物の画像は1000〜3399番地の
2400バイトに格納される。ただし、番地の単位はバ
イト(8ビット)である。
The data arrangement inside the memory 6 is shown in FIG. Although this design example is designed to store the person images for three persons, the number of persons can be easily changed. In FIG. 3, an address 200 stores the number N of persons cut out in the current image frame (N = <<
3). Each of 201 to 205 stores a pointer P1 indicating the start address of the first person image, a horizontal size W1 of the image, a vertical size H1, and center coordinates X1 and Y1 of the person image. When the head address P1 is 1000 bytes, the horizontal size W1 is 40 (pixels), and the vertical size H1 is 60 (pixels), and the grayscale value of one pixel of the image is represented by 1 byte, the image of the first person is 1000- It is stored in 2400 bytes at address 3399. However, the unit of address is byte (8 bits).

【0024】図4はこの人物画像を表す模式図である。
206〜210には、第2の人物の画像の先頭アドレス
を表すポインタP2、画像の横サイズW2、縦サイズH
2、人物画像の中心座標X2、Y2、がそれぞれ格納さ
れている。このとき、P2は、3400番地であり、W
2=16、H2=25とするとき、第2の人物の画像
は、3400〜3799番地の400バイトに格納され
る。211〜215は第3の人物の画像の先頭アドレス
を表すポインタP3、画像の横サイズW3、縦サイズH
3、中心座標X3、Y3、がそれぞれ格納される。この
とき、P3は、3800番地であり、W3=40、H3
=30とするとき、第3の人物の画像は、3800〜4
999番地の1200バイトに格納される。
FIG. 4 is a schematic diagram showing this person image.
206 to 210 include a pointer P2 indicating the start address of the image of the second person, a horizontal size W2 of the image, and a vertical size H.
2. The center coordinates X2 and Y2 of the person image are stored. At this time, P2 is address 3400 and W
When 2 = 16 and H2 = 25, the image of the second person is stored in 400 bytes at addresses 3400 to 3799. Numerals 211 to 215 denote a pointer P3 indicating the start address of the image of the third person, a horizontal size W3 of the image, and a vertical size H.
3, center coordinates X3, Y3 are stored respectively. At this time, P3 is address 3800, W3 = 40, H3
= 30, the images of the third person are 3800 to 4
It is stored in 1200 bytes at address 999.

【0025】バッファメモリ7は、過去のフレームにお
ける人物画像を貯えるもので、その構成はメモリ6と同
一であるが、貯えられる人物画像の人数は異なっていて
も良い。また、対応する各人物の画像サイズはメモリ6
とバッファメモリ7とでは異なっていても良い。
The buffer memory 7 stores the person images in the past frames and has the same structure as the memory 6, but the number of person images to be stored may be different. In addition, the image size of each corresponding person is stored in the memory 6
And the buffer memory 7 may be different.

【0026】顔認識部8では、一旦、入力されたメモリ
6の中の各人物の顔画像に識別番号を付与する。付与さ
れた顔画像をあらかじめ登録した人物の顔画像と比較
し、最も類似した人物のID情報(個人識別情報)を出
力する。ID情報は登録した人物に対応して設けられて
いる。このほかに、十分に類似した人物が決定できない
ときに出力する、不明を表すID情報Z1 、Z2 、・・
・が設けられている。ここで、Zn は第n番目の不明人
物を表す。なお、各人の人物画像に対して、最も類似し
た人物のID情報だけでなく、2位以下の候補のID情
報も出力するようにしても良い。顔認識部8から出力さ
れるID情報は総合判定部9に送られる。
The face recognition section 8 assigns an identification number to the face image of each person in the input memory 6 once. The given face image is compared with the face image of the person registered in advance, and the ID information (personal identification information) of the most similar person is output. The ID information is provided corresponding to the registered person. In addition, ID information Z 1 , Z 2 , ... Representing unknown, which is output when a sufficiently similar person cannot be determined.
・ Is provided. Here, Z n represents the n-th unknown person. In addition, not only the ID information of the most similar person but also the ID information of the second or lower candidate can be output to the person image of each person. The ID information output from the face recognition unit 8 is sent to the comprehensive determination unit 9.

【0027】個人追跡部10は、メモリ6の中の各人の画
像と、バッファメモリ7の中の各人の画像とを比較し、
どの部分画像が対応するかを決定するものである。決定
には、部分画像の中心の座標を基本として用いるが、画
像の類似度を加味することもできる。
The personal tracking unit 10 compares the image of each person in the memory 6 with the image of each person in the buffer memory 7,
It determines which partial image corresponds. For the determination, the coordinates of the center of the partial image are used as a basis, but the similarity of the images can be taken into consideration.

【0028】総合判定部9では、顔認識部の出力である
ID情報と、個人追跡部10で決定される部分画像の対応
関係を用いて、最終的な個人認識を行う。すなわち、現
在の画像フレームで不明と判定された人物Zi の顔画像
が、人物Aと判定された顔画像の過去の画像フレームに
登場する人物画像と連続している位置にある場合、人物
i は人物Aであると決定する。また、過去の画像フレ
ームで不明と判定された人物Zj の顔画像があって、こ
れが現在の画像フレームの顔画像で人物Bと判定された
ものの人物画像iと連続している位置にある場合、過去
の画像フレームで人物Zj は人物Bであると過去に遡っ
て決定する。これによって、不明を表すID情報Z1
2 、・・・が少なくなり、すでに決定されたID情報
にデータが付加されたりして、情報が正確になる。
The comprehensive determination unit 9 uses the correspondence between the ID information output from the face recognition unit and the partial image determined by the personal tracking unit 10 to perform final personal recognition. That is, when the face image of the person Z i determined to be unknown in the current image frame is located at a position continuous with the person images that appear in the past image frames of the face image determined to be the person A, the person Z i is determined to be the person A. Further, when there is a face image of the person Z j determined to be unknown in the past image frame, and this is at a position continuous with the person image i of the face image of the current image frame determined to be the person B , It is determined retroactively that the person Z j is the person B in the past image frame. As a result, the ID information Z 1 , which represents the unknown,
Z 2 becomes small, and data is added to the already determined ID information, so that the information becomes accurate.

【0029】総合判定部9で判定された人物のID情報
は視聴時間帯を加味して、通信装置2から中央情報処理
装置Aに伝達される。通信装置2は、適当な時刻、例え
ば深夜あるいは早朝に、記憶したID情報を一括して通
信線11を介して受信側の中央情報処理装置Aに出力して
も良い。この場合、チャンネル情報も一時記憶させる必
要がある(記憶手段1a)。また、通信装置2からは総合
判定部9の判定結果を時々刻々伝達し、不明ID情報を
確定する処理は受信側の情報処理装置Aに任せても良
い。ただし、その場合には、フレーム間の人物の同一性
を表す情報も送出する必要がある。さらに、個人時間帯
情報にチャンネル情報を組み込み一信号として伝達する
こともできる。このようにして送られてくる複数の情報
を情報処理装置Aによって処理し、詳しい視聴率データ
を得ることができる。
The ID information of the person judged by the comprehensive judgment unit 9 is transmitted from the communication device 2 to the central information processing device A in consideration of the viewing time zone. The communication device 2 may collectively output the stored ID information to the central information processing device A on the receiving side via the communication line 11 at an appropriate time, for example, at midnight or early morning. In this case, the channel information also needs to be temporarily stored (storage unit 1a). Further, the processing of transmitting the determination result of the comprehensive determination unit 9 from the communication device 2 moment by moment and determining the unknown ID information may be left to the information processing device A on the receiving side. However, in that case, it is also necessary to send information indicating the identity of the person between the frames. Furthermore, it is also possible to incorporate channel information into personal time zone information and transmit it as one signal. A plurality of pieces of information thus sent can be processed by the information processing apparatus A to obtain detailed audience rating data.

【0030】また、上記説明では、個人追跡部10におけ
る個人追跡と顔認識部8における顔認識は、同じ時間間
隔でサンプリングされたフレームについて行うとした
が、個人追跡をできるだけ細かい時間間隔で行なってお
き、顔認識は比較的に粗い時間間隔で行なうようにして
も良く、このようにすれば、個人追跡が確実に行なえる
ので、顔認識で不明となることがあっても、総合的な判
定で修正することができ、顔認識部8にかかる負担を減
らすことができる。
Further, in the above description, the individual tracking in the individual tracking section 10 and the face recognition in the face recognition section 8 are performed for the frames sampled at the same time intervals, but the individual tracking is performed at the smallest possible time intervals. Alternatively, face recognition may be performed at relatively coarse time intervals. By doing so, individual tracking can be reliably performed, so even if face recognition is unclear, comprehensive judgment is required. It is possible to correct by the above, and the load on the face recognition section 8 can be reduced.

【0031】次に、切出し部5の詳細を図2を参照して
説明する。符号4は図1に示したフレームメモリであっ
て、現在の室内画像が記憶される。符号51は同じくフレ
ームメモリであり、フレームメモリ4から一定時間間隔
T(例えば1秒)ごとに、その内容が複写される。すな
わち、フレームメモリ51はTだけ過去の時点での室内画
像が記憶されている。
Next, details of the cutout portion 5 will be described with reference to FIG. Reference numeral 4 is the frame memory shown in FIG. 1, in which the current indoor image is stored. Reference numeral 51 is also a frame memory, the contents of which are copied from the frame memory 4 at constant time intervals T (for example, 1 second). That is, the frame memory 51 stores the indoor image at a time point T past.

【0032】差分演算回路52には、フレームメモリ4と
フレームメモリ52の画像が入力され、その差分画像が作
られる。差分演算回路52では、入力された二つの画像を
画素ごとに比較し、その差の値を画素の値とするような
画像を作り出し、フレームメモリ53に格納する。フレー
ムメモリ53の差分画像では、動きのない室内背景は消去
され、動いている人物画像の輪郭が大きな値を持ってい
る。例えば、図5に示すように、輪郭Aは全身が動いて
いる人物を表し、輪郭Bは顔面のみが動いた場合を示し
ている。
The images of the frame memory 4 and the frame memory 52 are input to the difference calculation circuit 52, and the difference image is created. The difference calculation circuit 52 compares the two input images for each pixel, creates an image in which the difference value is the pixel value, and stores the image in the frame memory 53. In the difference image in the frame memory 53, the room background without motion is erased, and the contour of the moving person image has a large value. For example, as shown in FIG. 5, a contour A represents a person whose whole body is moving, and a contour B shows a case where only the face moves.

【0033】輪郭検出部54では、フレームメモリ53の差
分画像から、輪郭部を検出し、人物外郭部を示す長方形
の座標を求め、一時メモリ55に与える。一般には、人物
は複数存在することがあり、一時メモリ55には複数の人
物外郭部に関する座標が与えられている。顔画像検出部
56では、一時メモリ55から与えられる座標を用いて、フ
レームメモリ4から顔画像の部分を抽出するものであ
る。すなわち、人物画像の部分を抽出し、さらにその中
から顔部分に対応した濃淡値の画素を抽出してそれらの
画素を取り囲む長方形を決定し、顔画像の座標を一時メ
モリ57に格納する。一時メモリ55に複数の人物画像の座
標が与えられている場合には、その各々について、顔画
像の座標が一時メモリ57に与えられることは言うまでも
ない。
The contour detecting section 54 detects the contour section from the difference image in the frame memory 53, obtains the coordinates of a rectangle indicating the outer contour section of the person, and supplies it to the temporary memory 55. In general, there may be a plurality of persons, and the temporary memory 55 is provided with coordinates regarding a plurality of person outlines. Face image detector
At 56, the face image portion is extracted from the frame memory 4 using the coordinates given from the temporary memory 55. That is, the portion of the person image is extracted, the pixels of the gray value corresponding to the face portion are extracted from the portion, the rectangle surrounding the pixels is determined, and the coordinates of the face image are stored in the temporary memory 57. It goes without saying that, when the coordinates of a plurality of person images are given to the temporary memory 55, the coordinates of the face image are given to the temporary memory 57 for each of them.

【0034】顔画像抽出部58は、この座標情報を用い
て、フレームメモリ4から顔画像の部分を抽出して、メ
モリ6に格納する。メモリ6の構成は前述した通りであ
るが、その中で必要とされる情報が一時メモリ57から得
られることは明らかである、
The face image extraction unit 58 uses this coordinate information to extract the face image portion from the frame memory 4 and stores it in the memory 6. The structure of the memory 6 is as described above, but it is clear that the information required therein is obtained from the temporary memory 57,

【0035】次に、顔認識部8の詳細を説明する。顔認
識部8では、適当な時間間隔TR ごとに、メモリ6の中
の顔画像を認識するものであるが、時間間隔TR は画像
取り込み時間間隔Tの整数倍に取るのが便利である。例
えば、T=1秒、TR =15秒などが、実用上好適な値
である。顔認識部8には、メモリ6に格納された複数の
顔画像が与えられるが、原理的には同一であるので、1
名の顔画像の認識について説明する。
Next, details of the face recognition section 8 will be described. The face recognition unit 8 recognizes the face image in the memory 6 at every suitable time interval T R , but it is convenient to set the time interval T R to an integral multiple of the image acquisition time interval T. . For example, T = 1 second and T R = 15 seconds are practically suitable values. The face recognition unit 8 is provided with a plurality of face images stored in the memory 6, but since they are the same in principle, 1
The recognition of the face image of the name will be described.

【0036】また、図6に示すように、顔認識部8のバ
ッファメモリ81には、メモリ6から1名分の顔画像が複
写される。この顔画像から、自己相関係数計算回路82に
より、顔画像の自己相関係数が計算され、バッファメモ
リ83に格納される。
As shown in FIG. 6, the face image for one person is copied from the memory 6 to the buffer memory 81 of the face recognition section 8. From this face image, the autocorrelation coefficient calculation circuit 82 calculates the autocorrelation coefficient of the face image and stores it in the buffer memory 83.

【0037】ここで、自己相関係数は で定義される量である。ここで、P(i,j)は画像の
(i,j)画素の値を示し、MとNは顔画像の大きさを
示す。また、(ξ,η)は画像の相対移動量を示し、 −R=<ξ=<R, −R=<η=<R の範囲で計算するならば、K=(2R+1)2 個の自己
相関係数が得られる。このK個の自己相関係数を並べた
ものが、個人認識すべき顔画像、すなわち未知顔画像の
特徴ベクトルである。
Here, the autocorrelation coefficient is Is the amount defined by. Here, P (i, j) indicates the value of (i, j) pixel of the image, and M and N indicate the size of the face image. Further, (ξ, η) represents the relative movement amount of the image. If calculation is performed in the range of −R = <ξ = <R, −R = <η = <R, K = (2R + 1) 2 self The correlation coefficient is obtained. An array of these K autocorrelation coefficients is the feature vector of the face image to be personally recognized, that is, the unknown face image.

【0038】バッファメモリ83に格納された自己相関係
数(K次元ベクトル)は、制御部84の制御のもとに、メ
モリ85に記憶された各個人の標準パターンと順次比較さ
れる(比較部86)。標準パターンは、認識しようとする
各個人についてあらかじめ計算しておいた特徴ベクトル
(自己相関関数、K次元ベクトル)である。第K番目の
視聴者の特徴ベクトルを σK (ξ,η) とすれば、未知顔画像と第K視聴者顔画像との間の距離
で与えられる。
The autocorrelation coefficient (K-dimensional vector) stored in the buffer memory 83 is sequentially compared with the standard pattern of each individual stored in the memory 85 under the control of the control unit 84 (comparing unit). 86). The standard pattern is a feature vector (autocorrelation function, K-dimensional vector) calculated in advance for each person to be recognized. If the feature vector of the Kth viewer is σ K (ξ, η), the distance between the unknown face image and the Kth viewer face image is Given in.

【0039】この距離はメモリ87に格納される。すべて
の認識対象視聴者についての距離がメモリ87に格納され
た後で、制御部84の制御によって、最小距離を与えるよ
うなmを求め認識結果とし、メモリ88に記憶させる。た
だし、 Dm =>δ のときは、認識結果を保留し、認識不能として答えを返
す。ここで、δは適当に定めたパラメータである。
This distance is stored in the memory 87. After the distances for all the viewers to be recognized are stored in the memory 87, by the control of the control unit 84, m that gives the minimum distance is obtained and stored in the memory 88 as a recognition result. However, when D m => δ, the recognition result is suspended and the answer is returned as unrecognizable. Here, δ is an appropriately determined parameter.

【0040】顔認識部8による認識不能が複数個生じる
場合もあり、一般には、これを区別するために、Z1
2 、・・・のように表現する。例えば、Zn =−nと
表現するのは一つの方法である。認識結果は図1の総合
判定部9に送られる。認識不能の場合も、確定していな
い人物の識別番号を近似した特定の視聴者の識別番号に
対応させて総合判定部9に送ることは有効である。この
場合、特定の視聴者の識別番号をmとすれば、認識結果
としてZn =−mとするのは、また別の一つの表現方法
である。
There may be a case where a plurality of unrecognizable faces are generated by the face recognition section 8. Generally, in order to distinguish this, Z 1 ,
It is expressed as Z 2 . For example, expressing Z n = −n is one method. The recognition result is sent to the comprehensive judgment unit 9 in FIG. Even in the case of being unrecognizable, it is effective to send the identification number of the undetermined person to the comprehensive determination unit 9 in association with the identification number of the specific viewer who approximates the identification number. In this case, if the identification number of the particular viewer and m, to the Z n = -m as a recognition result, also is another one of the representations.

【0041】次に、個人追跡部10の詳細を図7を参照し
て説明する。メモリ6およびバッファメモリ7は図1に
示したものであり、既に説明したように、メモリ6には
現在の画像フレームにおける各人の顔画像が、バッファ
メモリ7には過去の画像フレームにおける各人の顔画像
が格納されており、比較計算機10a に入力される。メモ
リ6およびバッファメモリ7の内部構造は図3に示した
ようになっているので、これから各人物顔画像の中心座
標が得られる。比較計算機10a においては、各人物の顔
画像の中心座標を比較し、メモリ6,7における各人の
顔画像の対応関係を求める。すなわち、中心座標(xi
6 ,yi6 )と(xj7 ,yj7 )の距離が小さい場
合、メモリ6の中の人物iとバッファメモリ7の中の人
物jは同一であると判定する。この判定結果は総合判定
部9に送られる。
Next, details of the personal tracking unit 10 will be described with reference to FIG. The memory 6 and the buffer memory 7 are those shown in FIG. 1, and as described above, the memory 6 stores the face images of the persons in the current image frame, and the buffer memory 7 stores the face images of the persons in the past image frame. The face image of is stored and is input to the comparison computer 10a. Since the internal structures of the memory 6 and the buffer memory 7 are as shown in FIG. 3, the central coordinates of each human face image can be obtained from this. In the comparison computer 10a, the center coordinates of the face images of the persons are compared, and the correspondence relationship between the face images of the persons in the memories 6 and 7 is obtained. That is, the center coordinates (xi
When the distance between ( 6 , yi 6 ) and (xj 7 , yj 7 ) is small, it is determined that the person i in the memory 6 and the person j in the buffer memory 7 are the same. This judgment result is sent to the comprehensive judgment unit 9.

【0042】次に、図8を参照して総合判定部9の詳細
を説明する。顔認識部8および個人追跡部10の判定結果
が総合判定部9に与えられている。顔認識部8の認識結
果はメモリ91に格納される。個人追跡部10の結果は処理
部92に与えられ、処理部92ではメモリ91の内容と個人追
跡部10の結果を総合し、メモリ91の内容を修正する。メ
モリ91の内容を出力したものが総合判定結果である。メ
モリ91の内部構成を図9に示す。図9において、各行は
ある一時点における認識結果を示し(単位画像フレーム
に相当する)、各列はメモリ6における各個人画像を示
す。なお、図9のAからDまでは時間経過を分かりやす
くしたものである。
Next, the details of the comprehensive judgment unit 9 will be described with reference to FIG. The determination results of the face recognition unit 8 and the personal tracking unit 10 are given to the comprehensive determination unit 9. The recognition result of the face recognition unit 8 is stored in the memory 91. The result of the individual tracking unit 10 is given to the processing unit 92, and the processing unit 92 integrates the content of the memory 91 and the result of the individual tracking unit 10 to correct the content of the memory 91. The output of the contents of the memory 91 is the comprehensive determination result. The internal structure of the memory 91 is shown in FIG. In FIG. 9, each row shows the recognition result at a certain temporary point (corresponding to a unit image frame), and each column shows each individual image in the memory 6. It should be noted that A to D in FIG. 9 are for easy understanding of the passage of time.

【0043】図9のAの第1行T1では、人物2が視聴
者1と認識され、人物1、3は認識できなかったことを
示す。すなわち、人物1、3については特定の視聴者と
同定されなかったので、認識不能を示す数値Z1 1、Z2 1
が入る。ただし、Zの上付きの添え字は、時刻を区別す
るためのものである。第2行T2では、人物1、2、3
に対してそれぞれ特定の視聴者2、1、3が顔認識部8
の出力として得られたことを示す。人物1、2、3は画
像フレームにおいて移動している場合があるが、ここで
は、画像フレーム内で連続した位置にある人物を同一人
物として図9の表に整理して並べている。
In the first row T1 of FIG. 9A, the person 2 is recognized as the viewer 1 and the persons 1 and 3 are not recognized. That is, since the persons 1 and 3 were not identified as the specific viewers, the numerical values Z 1 1 and Z 2 1 indicating unrecognizable
Goes in. However, the superscript of Z is for distinguishing the time. In the second row T2, persons 1, 2, 3
For the specific viewers 2, 1, 3 respectively,
Is obtained as the output of. Although the persons 1, 2, and 3 may be moving in the image frame, here, the persons at consecutive positions in the image frame are arranged as the same person in the table of FIG.

【0044】そのとき、処理部92では、人物1、2、3
は第2行で同定した視聴者が第1行T1の人物と合致し
たものについて置換する。第1行T1の不確定人物に対
し、第2行T2の結果を遡らせて比較することにより、 Z1 1=2、Z2 1=3 と確定できる。したがって、図9のBのようになる。
At that time, in the processing unit 92, the persons 1, 2, 3
Replaces the viewer identified in the second row that matches the person in the first row T1. By tracing back and comparing the results of the second row T2 to the uncertain person in the first row T1, Z 1 1 = 2 and Z 2 1 = 3 can be confirmed. Therefore, it becomes like B of FIG.

【0045】また、第3行T3に対しては、不明人物Z
1 3(図9のB)に対し、第2行T2の認識結果を伝達す
ることにより、Z1 3=1と確定できる(図9のC)。第
4行T4についても同様であるが、不明人物Z2 4につい
ては、過去の情報が利用できないので不明として残り
(図9のD)、後の処理を待つことになる。
For the third row T3, the unknown person Z
By transmitting the recognition result of the second row T2 to 1 3 (B in FIG. 9), Z 1 3 = 1 can be determined (C in FIG. 9). Is the same also for the fourth row T4, the unknown person Z 2 4, remain as unknown because historical information is not available (D in FIG. 9), and waits for subsequent processing.

【0046】次に、他の実施例を図10を参照して説明す
る。ここでは、人数カウンタ13が設けられている。人数
カウンタ13は室内に存在する人物の人数を計るもので、
例えば、超音波センサを用いることができる。総合判定
部9においては、人数情報と顔認識部8の出力として得
られる人物の人数を比較し、両者が一致しない場合に切
出し部5にフィードバックを行って、認識を再実行する
ようにしても良い。
Next, another embodiment will be described with reference to FIG. Here, a people counter 13 is provided. The number of people counter 13 counts the number of people in the room,
For example, an ultrasonic sensor can be used. The comprehensive determination unit 9 compares the number-of-persons information with the number of persons obtained as the output of the face recognition unit 8 and, if they do not match, feeds them back to the cutout unit 5 to re-perform recognition. good.

【0047】また、顔認識部8において、顔の向いてい
る方向を識別し、ID情報の一部として通信装置2に送
出する。この情報は、テレビジョン視聴の態度を表す情
報として利用される。したがって、この情報を受信した
中央情報処理装置Aは、さらにきめ細かい視聴率データ
を作成することができ、テレビジョン番組の質向上に役
立てることができる。
Further, the face recognition section 8 identifies the direction in which the face is facing and sends it to the communication device 2 as a part of the ID information. This information is used as information indicating a television viewing attitude. Therefore, the central information processing device A that has received this information can create more detailed audience rating data, which can be useful for improving the quality of television programs.

【0048】また、時計12の較正回路を設けても良く、
この場合、通信線11を介して通信装置2が時刻較正信号
を受取り、較正回路を働かせるものである。例えば、毎
日午後12時に信号を発信することで、時計の経時的な誤
差の累積による誤データの発生を避けることができる。
A calibration circuit for the timepiece 12 may be provided,
In this case, the communication device 2 receives the time calibration signal via the communication line 11 and activates the calibration circuit. For example, by sending a signal every day at 12:00 pm, it is possible to avoid the generation of erroneous data due to the accumulation of time-dependent errors in the clock.

【0049】さらに、複数のテレビ1を有する家庭にお
いては、各テレビ1の設置された部屋ごとに本システム
を取付け、通信装置2を共用するようにしても良い。こ
の場合、片方のシステムの通信を停止させるので、その
間の記憶装置を設けて置く。また、複数個のテレビ1が
あっても一度に一台のテレビ1しか稼働させない状態に
おいては、チャンネル情報が常に一つのため、一つのチ
ャンネル情報に複数人のデータを乗せる方式がある。こ
のほかにも、一個人の個人時間帯情報に複数個のテレビ
1のチャンネル情報を付加して通信する方式がある。こ
れにより、家庭内において、個人がどのテレビジョン受
像機を利用しても正確に視聴率データを得ることができ
る。
Further, in a home having a plurality of televisions 1, this system may be attached to each room in which each television 1 is installed and the communication device 2 may be shared. In this case, since communication of one system is stopped, a storage device between them is provided. In addition, even if there is a plurality of televisions 1, when only one television 1 is in operation at a time, there is always one channel information, so there is a method in which the data of a plurality of people is put on one channel information. In addition to this, there is a system in which channel information of a plurality of televisions 1 is added to personal time zone information of one individual for communication. As a result, it is possible to accurately obtain the audience rating data at home regardless of which television receiver the individual uses.

【0050】以上の実施例において、各個人の登録した
顔の標準パターンは、既に顔識別部8に登録済であると
仮定してきたが、以下にその標準パターンの学習方法に
ついて述べる。
In the above embodiment, it has been assumed that the standard pattern of the face registered by each individual has already been registered in the face identification section 8. The learning method of the standard pattern will be described below.

【0051】先ず、カメラ3の前に数人の指定された視
聴者が立ち、正面および各方向を向いた顔をその都度動
かさずに掲示し、カメラ3で撮影する。カメラ3の出力
から連続に画像フレームをサンプリングし、画像フレー
ムから切出し部5により各顔画像を抽出してデータを作
成し、個人識別を行った標準パターン情報として顔認識
部8に登録しID情報として出力できるようにする。各
顔画像を抽出した際、各個人を区別できるようなスイッ
チを各視聴者に持たせ、このスイッチが押されている時
点で、画像を切出すと同時に、スイッチの区別により性
別、年齢、職業等の情報を付加することができる。学習
は一回だけでなく、何回か行うようにした方が良い。
First, several designated viewers stand in front of the camera 3, and the faces facing the front and the respective directions are displayed without moving each time, and an image is taken by the camera 3. Image frames are continuously sampled from the output of the camera 3, and each face image is extracted from the image frame by the cutout unit 5 to create data, which is registered in the face recognition unit 8 as standard pattern information for individual identification, and ID information is registered. To be output as. When each face image is extracted, each viewer is given a switch that allows each individual to be distinguished, and when this switch is pressed, the image is cut out, and at the same time the switch distinguishes the gender, age, and occupation. It is possible to add information such as. It is better not to learn once but to do it several times.

【0052】この採取された標準パターンは、平均して
1個のパターンとしても良いが、別々のパターンとして
登録されている。また、登録したパターンのいずれと一
致した場合でも同一のID情報を出力するような構成と
しても良い。また、各個人ごとに超音波発信機のような
位置情報発信装置を持たせ、この位置情報を用いて、画
面内の個人の存在箇所を推定し、画像フレームの中での
個人画像の切出しを行うようにすれば、学習時に切出し
誤りが生ずることをほとんど皆無にでき、学習の誤りに
よる誤認識の誘発が防止できる。
The standard patterns thus collected may be one pattern on average, but are registered as separate patterns. In addition, the same ID information may be output even if it matches any of the registered patterns. In addition, each person is provided with a position information transmission device such as an ultrasonic transmitter, and using this position information, the location of the individual on the screen is estimated, and the personal image is cut out in the image frame. By doing so, it is possible to prevent the cutting error from occurring at the time of learning, and it is possible to prevent the false recognition caused by the learning error.

【0053】以上説明したように、実際に視聴している
不特定数の視聴者をカメラ3で捕らえるものであり、カ
メラ3で捕らえた人物は動画像として追跡され、特定の
個人が顔画像によって確定されたときには、その人物の
過去の視聴データも付加される。したがって、最終的
に、不明の人物は視聴率協力者以外の人物となり、デー
タの数値を確かなものにすることができる。さらに、視
聴者がどのような姿勢で何時に何を見ているかがわかる
ので、個人別の視聴率データを自動的に取得することが
でき、視聴者に負担をかけることがなく、従来のよう
に、視聴の開始、終了に際してスイッチなどの操作を要
請する必要がなく、スイッチの押し忘れなどによる精度
低下が避けられる。
As described above, the camera 3 captures an unspecified number of viewers who are actually watching. The person captured by the camera 3 is tracked as a moving image, and a specific individual is identified by a face image. When confirmed, the past viewing data of the person is also added. Therefore, finally, the unknown person becomes a person other than the audience rating cooperator, and the numerical value of the data can be made reliable. Furthermore, since it is possible to know what kind of posture the viewer is looking at, what time it is, it is possible to automatically obtain the viewer rating data for each individual, and without burdening the viewer. In addition, it is not necessary to request operation of a switch or the like at the start and end of viewing, and it is possible to avoid a decrease in accuracy due to forgetting to press the switch.

【0054】[0054]

【発明の効果】本発明は、以上のように構成したもので
あるから、画像フレームから視聴者の識別情報を抽出
し、あらかじめ用意した識別情報と比較することによっ
て特定の視聴者を同定し、さらに過去の視聴データを参
考にするので、同定の出来ない人物については識別番号
によってデータを蓄積しておき、確立された時点で個人
識別情報に変換されるので、精度の高い個人識別が行わ
れ、信頼性の高い個人別の視聴率データを取得すること
ができる。また、この結果、視聴者の反応を正確に把握
でき、テレビジョン放送の水準向上に寄与することがで
きる。また、視聴者画像入力手段にテレビカメラを使用
することによって、視聴者の存在だけでなく、各視聴者
の視聴態度までも含めた質の高い個人別の視聴率データ
が採取できる。
Since the present invention is configured as described above, the identification information of the viewer is extracted from the image frame and compared with the identification information prepared in advance to identify the specific viewer, Furthermore, since the viewing data in the past is used as a reference, for those who cannot be identified, the data is accumulated by the identification number and converted to the personal identification information at the time of establishment, so highly accurate personal identification is performed. , It is possible to acquire highly reliable individual audience rating data. Further, as a result, the reaction of the viewer can be accurately grasped, which can contribute to the improvement of the level of television broadcasting. Further, by using a television camera as the viewer image input means, it is possible to collect high-quality individual audience rating data including not only the presence of the viewer but also the viewing attitude of each viewer.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による実施例の視聴率調査システムの構
成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an audience rating survey system according to an embodiment of the present invention.

【図2】図1に示す切出し部の詳細な構成を示すブロッ
ク図である。
FIG. 2 is a block diagram showing a detailed configuration of a cutout portion shown in FIG.

【図3】図1に示すメモリ内部のデータ配置を示す説明
図である。
FIG. 3 is an explanatory diagram showing a data arrangement inside the memory shown in FIG. 1.

【図4】図1に示すメモリ内部のデータによる顔画像の
模式図である。
FIG. 4 is a schematic diagram of a face image based on the data in the memory shown in FIG. 1.

【図5】図2に示すメモリ43内部のデータが表す差分画
像の模式図である。
5 is a schematic diagram of a difference image represented by data inside the memory 43 shown in FIG.

【図6】図1に示す顔認識部の詳細な構成を示すブロッ
ク図である。
FIG. 6 is a block diagram showing a detailed configuration of a face recognition section shown in FIG. 1.

【図7】図1に示す視聴率調査システムの構成中の個人
追跡部を示すブロック図である。
7 is a block diagram showing an individual tracking unit in the configuration of the audience rating survey system shown in FIG. 1. FIG.

【図8】図1に示す総合判定部の詳細を示すブロック図
である。
FIG. 8 is a block diagram showing details of a comprehensive determination unit shown in FIG.

【図9】図8に示す総合判定部の内部のデータ配置を示
す説明図である。
9 is an explanatory diagram showing an internal data arrangement of the comprehensive determination unit shown in FIG.

【図10】他の実施例の視聴率調査システムの構成を示
すブロック図である。
FIG. 10 is a block diagram showing the configuration of an audience rating survey system according to another embodiment.

【符号の説明】[Explanation of symbols]

1 テレビジョン受像機 3 テレビカメラ 8 顔認識部 9 総合判定部 10 個人追跡部 12 時計 1 TV receiver 3 TV camera 8 Face recognition unit 9 Comprehensive judgment unit 10 Personal tracking unit 12 Clock

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 テレビジョン受像機と、テレビジョン受
像機の視聴空間に向けられた視聴者画像入力手段と、前
記視聴者画像入力手段により抽出した画像フレームから
切り出された視聴者の識別情報を得る手段と、特定の視
聴者の識別情報をあらかじめ記憶する手段と、前記視聴
者画像入力手段により新たに抽出した視聴者の識別情報
と前期記憶手段により収納された特定の視聴者の識別情
報とを比較し同定する判定手段と、該判定手段に付加さ
れ新たに抽出した視聴者の識別情報の入力信号の時間帯
を検出するための時計手段と、前記判定手段により得ら
れた個人時間帯情報と前記テレビジョン受像機のチャン
ネル情報とを情報処理装置へ送る伝達手段と、を設けた
ことを特徴とする視聴率調査システム。
1. A television receiver, a viewer image input means directed to a viewing space of the television receiver, and viewer identification information cut out from the image frame extracted by the viewer image input means. Obtaining means, means for pre-storing identification information of a specific viewer, identification information of the viewer newly extracted by the viewer image input means, and identification information of the specific viewer stored by the previous storage means. And a clock means for detecting the time zone of the input signal of the newly extracted viewer identification information added to the determination means, and the personal time zone information obtained by the determination means. And a transmission means for transmitting the channel information of the television receiver to an information processing device, the audience rating survey system.
【請求項2】 連続に抽出した複数の画像フレーム間
で、抽出した複数の識別情報が連続する位置で確認され
たとき、該連続する複数の識別情報に同一の識別番号を
付与して記憶する記憶手段と、識別番号を付与した新た
な人物と特定の視聴者とを同定して、前記識別番号また
は前記識別番号を付与した人物の記憶情報を、特定した
視聴者の識別情報として置き換える判定手段を設けたこ
とを特徴とする請求項1記載の視聴率調査システム。
2. When a plurality of extracted identification information are confirmed at consecutive positions among a plurality of consecutively extracted image frames, the same identification number is assigned to the consecutive plurality of identification information and stored. Storage means, determination means for identifying a new person who has been given an identification number and a specific viewer, and replacing the identification number or stored information of the person who has been given the identification number as identification information for the specified viewer. The audience rating survey system according to claim 1, further comprising:
【請求項3】 同定されない識別番号の識別情報を情報
処理装置に送る判定手段と、前記同定されない識別番号
を付与した人物が特定した視聴者と同一であることを判
定したときに、前記伝達した個人時間帯情報と後発の同
定した個人時間帯情報とを対応させる信号を送出する手
段を設けたことを特徴とする請求項1記載の視聴率調査
システム。
3. The determination means for sending the identification information of the unidentified identification number to the information processing apparatus, and the transmission when the person who gives the unidentified identification number is determined to be the same as the identified viewer. 2. The audience rating survey system according to claim 1, further comprising means for transmitting a signal for associating the personal time zone information with the subsequently identified personal time zone information.
【請求項4】 情報処理を行う側からの信号を受けて、
時計手段の時刻を較正する手段を設けたことを特徴とす
る請求項1記載の視聴率調査システム。
4. Upon receiving a signal from a side performing information processing,
The audience rating survey system according to claim 1, further comprising means for calibrating the time of the clock means.
【請求項5】 画像フレームから視聴範囲内に存在する
人物の人数を計数し、この人数情報を伝達することを特
徴とする請求項1記載の視聴率調査システム。
5. The audience rating survey system according to claim 1, wherein the number of persons existing in the viewing range is counted from the image frame, and the number information is transmitted.
【請求項6】 画像フレームから視聴の態様を識別し、
この視聴態様を表す情報を伝達することを特徴とする請
求項1記載の視聴率調査システム。
6. A mode of viewing is identified from the image frame,
The audience rating survey system according to claim 1, wherein the information indicating the viewing mode is transmitted.
【請求項7】 特定の人物の識別情報を識別番号を付与
して学習させると共に記憶し、該識別番号を付与した識
別情報を特定の視聴者の識別情報に置き換えるようにし
たことを特徴とする請求項1記載の視聴率調査システ
ム。
7. The identification information of a specific person is assigned an identification number to be learned and stored, and the identification information assigned the identification number is replaced with the identification information of a specific viewer. The audience rating survey system according to claim 1.
【請求項8】 各人物の位置確認装置を備え、学習時に
位置確認装置の出力から、画面フレーム中の各人物の画
像を同定するようにしたことを特徴とする請求項7記載
の視聴率調査システム。
8. The audience rating survey according to claim 7, further comprising a position confirmation device for each person, wherein the image of each person in the screen frame is identified from the output of the position confirmation device during learning. system.
【請求項9】 請求項1記載のシステムを複数設置し、
複数のテレビジョン受像機についての個人時間帯情報お
よびチャンネル情報を総合判定し、複数台に関する各個
人の視聴データを一括して伝達することを特徴とする視
聴率調査システム。
9. A plurality of systems according to claim 1 are installed,
An audience rating survey system characterized by comprehensively determining personal time zone information and channel information for a plurality of television receivers, and collectively transmitting viewing data of each individual regarding a plurality of television receivers.
JP18751293A 1993-06-30 1993-06-30 Audience rating survey system Pending JPH0723012A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18751293A JPH0723012A (en) 1993-06-30 1993-06-30 Audience rating survey system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18751293A JPH0723012A (en) 1993-06-30 1993-06-30 Audience rating survey system

Publications (1)

Publication Number Publication Date
JPH0723012A true JPH0723012A (en) 1995-01-24

Family

ID=16207371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18751293A Pending JPH0723012A (en) 1993-06-30 1993-06-30 Audience rating survey system

Country Status (1)

Country Link
JP (1) JPH0723012A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010097950A (en) * 2000-04-27 2001-11-08 이정숙 Examination method of audience rating by disposition of viewer and system for the same
JP2002056388A (en) * 2001-05-28 2002-02-20 Nec Corp Robot device
KR20020036867A (en) * 2000-11-11 2002-05-17 황순영 A system for measuring the effects of tv ads and a method of face recognition
KR20040008896A (en) * 2002-07-19 2004-01-31 (주) 젠터닷컴 Aparatus and method for measuring a program rating
JP2005100062A (en) * 2003-09-24 2005-04-14 Sanyo Electric Co Ltd Authentication device and method
US7123754B2 (en) 2001-05-22 2006-10-17 Matsushita Electric Industrial Co., Ltd. Face detection device, face pose detection device, partial image extraction device, and methods for said devices
JP2006293732A (en) * 2005-04-12 2006-10-26 Hitachi Ltd Information processor, image sensor, biometrics system, and biometrics program for information processor
JP2007249587A (en) * 2006-03-15 2007-09-27 Omron Corp Authentication device, authentication method, authentication program and computer readable recording medium having the same recorded thereon
JP2007310480A (en) * 2006-05-16 2007-11-29 Toyota Motor Corp Recognition device and recognition means
JP2008278302A (en) * 2007-05-01 2008-11-13 Sharp Corp Television receiver and viewing information acquiring apparatus
JP2009122786A (en) * 2007-11-13 2009-06-04 Mazda Motor Corp Vehicle driving support apparatus
JP2010250730A (en) * 2009-04-20 2010-11-04 Sanyo Electric Co Ltd Image processing apparatus and imaging device
JP2012033054A (en) * 2010-07-30 2012-02-16 Ricoh Co Ltd Device and method for producing face image sample, and program
WO2012176835A1 (en) 2011-06-22 2012-12-27 三菱電機株式会社 Reception terminal, viewing information collection system, and viewing information collection method
JP2013506529A (en) * 2009-10-05 2013-02-28 スカイホーク・テクノロジーズ,エルエルシー Personal golf assistant, method and system for graphically displaying golf related information and collecting, processing and distributing golf related data
JP2017045206A (en) * 2015-08-25 2017-03-02 カルチュア・コンビニエンス・クラブ株式会社 Device, method and program for estimating user using content from among a plurality of object persons
JP2018169776A (en) * 2017-03-29 2018-11-01 日本電気株式会社 Authentication device, authentication method, and program

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010097950A (en) * 2000-04-27 2001-11-08 이정숙 Examination method of audience rating by disposition of viewer and system for the same
KR20020036867A (en) * 2000-11-11 2002-05-17 황순영 A system for measuring the effects of tv ads and a method of face recognition
US7123754B2 (en) 2001-05-22 2006-10-17 Matsushita Electric Industrial Co., Ltd. Face detection device, face pose detection device, partial image extraction device, and methods for said devices
JP2002056388A (en) * 2001-05-28 2002-02-20 Nec Corp Robot device
KR20040008896A (en) * 2002-07-19 2004-01-31 (주) 젠터닷컴 Aparatus and method for measuring a program rating
JP2005100062A (en) * 2003-09-24 2005-04-14 Sanyo Electric Co Ltd Authentication device and method
JP2006293732A (en) * 2005-04-12 2006-10-26 Hitachi Ltd Information processor, image sensor, biometrics system, and biometrics program for information processor
JP2007249587A (en) * 2006-03-15 2007-09-27 Omron Corp Authentication device, authentication method, authentication program and computer readable recording medium having the same recorded thereon
JP2007310480A (en) * 2006-05-16 2007-11-29 Toyota Motor Corp Recognition device and recognition means
JP2008278302A (en) * 2007-05-01 2008-11-13 Sharp Corp Television receiver and viewing information acquiring apparatus
JP2009122786A (en) * 2007-11-13 2009-06-04 Mazda Motor Corp Vehicle driving support apparatus
JP2010250730A (en) * 2009-04-20 2010-11-04 Sanyo Electric Co Ltd Image processing apparatus and imaging device
JP2013506529A (en) * 2009-10-05 2013-02-28 スカイホーク・テクノロジーズ,エルエルシー Personal golf assistant, method and system for graphically displaying golf related information and collecting, processing and distributing golf related data
JP2012033054A (en) * 2010-07-30 2012-02-16 Ricoh Co Ltd Device and method for producing face image sample, and program
WO2012176835A1 (en) 2011-06-22 2012-12-27 三菱電機株式会社 Reception terminal, viewing information collection system, and viewing information collection method
JP2017045206A (en) * 2015-08-25 2017-03-02 カルチュア・コンビニエンス・クラブ株式会社 Device, method and program for estimating user using content from among a plurality of object persons
JP2018169776A (en) * 2017-03-29 2018-11-01 日本電気株式会社 Authentication device, authentication method, and program

Similar Documents

Publication Publication Date Title
JPH0723012A (en) Audience rating survey system
US9141184B2 (en) Person detection system
KR101337060B1 (en) Imaging processing device and imaging processing method
US4975960A (en) Electronic facial tracking and detection system and method and apparatus for automated speech recognition
IL256885A (en) Apparatus and methods for facial recognition and video analytics to identify individuals in contextual video streams
JPH02121070A (en) Image recognition system and method
US7936255B2 (en) Group analysis system and group analysis equipment
JP2008040781A (en) Subject verification apparatus and subject verification method
WO2008107138A1 (en) Process for automatically determining a probability of image capture with a terminal using contextual data
CN111063079A (en) Binocular living body face detection method and device based on access control system
CN109905641A (en) A kind of target monitoring method, apparatus, equipment and system
JP2010088072A (en) Monitor image storage system and monitor image storage method for monitor image storage system
JP7103229B2 (en) Suspiciousness estimation model generator
KR20120054971A (en) Method of tracing object using and network camera therefor
CN113934307A (en) Method for starting electronic equipment according to gestures and scenes
JPH08210847A (en) Image processing method
CN111753587B (en) Ground falling detection method and device
US9832427B2 (en) Camera, camera system, and self-diagnosis method
CN112908017A (en) Method, device and equipment for detecting vehicle parking state
US10984536B2 (en) Motion detection in digital images and a communication method of the results thereof
JP2612204B2 (en) TV personal audience rating measurement device
JP2005140754A (en) Method of detecting person, monitoring system, and computer program
CN111310602A (en) System and method for analyzing attention of exhibit based on emotion recognition
CN112232113A (en) Person identification method, person identification device, storage medium, and electronic apparatus
KR20210001438A (en) Method and device for indexing faces included in video