JP2003189295A - Monitor camera system and information-providing system using the same - Google Patents

Monitor camera system and information-providing system using the same

Info

Publication number
JP2003189295A
JP2003189295A JP2001383699A JP2001383699A JP2003189295A JP 2003189295 A JP2003189295 A JP 2003189295A JP 2001383699 A JP2001383699 A JP 2001383699A JP 2001383699 A JP2001383699 A JP 2001383699A JP 2003189295 A JP2003189295 A JP 2003189295A
Authority
JP
Japan
Prior art keywords
image
person
coordinates
data
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001383699A
Other languages
Japanese (ja)
Other versions
JP3637360B2 (en
Inventor
Hidenori Mitsuishi
秀紀 三石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CEC KK
Computer Engineering and Consulting Ltd
Original Assignee
CEC KK
Computer Engineering and Consulting Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CEC KK, Computer Engineering and Consulting Ltd filed Critical CEC KK
Priority to JP2001383699A priority Critical patent/JP3637360B2/en
Publication of JP2003189295A publication Critical patent/JP2003189295A/en
Application granted granted Critical
Publication of JP3637360B2 publication Critical patent/JP3637360B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To consolidate and deliver images observed by means of a monitor camera installed at a store to a processing center to execute centralized image processing and accumulation. <P>SOLUTION: The images observed by means of the monitor camera installed at the store are consolidated and delivered to the processing center. An image processing means at the processing center extracts black from a photographed image. Removing a portion corresponding to the black portion of a black- extracted background image extracts a person image. The coordinate of its top portion is stored as a head coordinate. The monitor camera is fixedly installed. Previous registration is applied to a corresponding relation to the head coordinate applied when a person with a prescribed height is present at the space coordinate of its monitor range. The space coordinate is then obtained from the detected head coordinate to determine the position of the person in the image. The position data of the person is stored on request. The data is then provided to the store. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は監視カメラシステム
及びこれを用いた情報提供システムに関し、特に、定点
観測する監視カメラの画像をセンタに集めて簡単な処理
にて人物位置を検出するとともに、目的に応じてセンタ
から撮影画像データを配信するシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a surveillance camera system and an information providing system using the surveillance camera system, and more particularly to gathering images of surveillance cameras for fixed point observation in a center and detecting a person position by a simple process. The present invention relates to a system for delivering photographed image data from a center according to the requirements.

【0002】[0002]

【従来の技術】軽飲食を提供するレストランやコーヒー
ショップ等では顧客の回転率を上げることが売り上げ向
上のための重要な課題となっている。従来、店舗の回転
率は売上伝票の枚数で来店客数を割り出し、店舗内の席
数で除算して求めたりしている。また、チェーン展開を
行っている飲食店などでは各店舗に監視員を巡回させ、
店舗毎の顧客の入り状態のチェックを行ったりしてい
る。
2. Description of the Related Art Increasing customer turnover has become an important issue for improving sales in restaurants and coffee shops that provide light meals. Conventionally, the turnover ratio of a store is calculated by dividing the number of customers visiting the store by the number of sales slips and dividing by the number of seats in the store. In addition, at restaurants and other places where chain development is being carried out, a guard is patrolled at each store,
They also check the entry status of customers at each store.

【0003】一方、従来より防犯目的のために店舗内に
監視カメラを設け、例えばレジにおいて従業員がカメラ
画像をモニタすることが行われているが、これを顧客の
回転率の把握にも用いることができる。一般にカメラか
らの画像はリアルタイムで監視されるか、ビデオテープ
に録画した画像を2〜3倍速で再生してモニタするよう
にしている。
On the other hand, conventionally, a surveillance camera is provided in a store for the purpose of crime prevention, and an employee monitors a camera image, for example, at a cash register. This is also used for grasping a customer's turnover ratio. be able to. Generally, an image from a camera is monitored in real time, or an image recorded on a video tape is reproduced at 2 to 3 times speed for monitoring.

【0004】さらに、監視カメラから得られる画像を順
次処理装置にかけることにより、画像内での人物を自動
的に検出することが行われている。この技術では、予め
用意した背景画像と今回撮影した画像を比較して画素毎
の輝度差分を得ることにより監視領域内の変動画素を検
出し、さらにその面積や周囲長などの画像特徴を求めて
人体であるか否かの判定を行うようにしている。また、
この画像処理において人物画像を水平方向に投影したヒ
ストグラムを作成すると頭部において頭の上から首の付
け根までのヒストグラムが山の形になるため、その山の
頂点の位置から頭部の中心点を求めて頭部位置を検出す
る技術も用いられている。
Further, by sequentially applying the images obtained from the surveillance camera to the processing device, a person in the image is automatically detected. In this technology, the background image prepared in advance is compared with the image captured this time to obtain the brightness difference for each pixel, thereby detecting the variable pixels in the monitoring area, and further determining the image characteristics such as the area and the perimeter. It is determined whether or not it is a human body. Also,
When a histogram is created by projecting a human image horizontally in this image processing, the histogram from the top of the head to the base of the neck becomes a mountain shape in the head, so the center point of the head is determined from the position of the apex of the mountain. A technique for obtaining and detecting the head position is also used.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、売り上
げ伝票に表れる来客数から顧客の入り状況を把握する方
法では、伝票記載の来客数の総計から判断するため単位
時間毎の把握が困難であり、例えば顧客の在席時間が長
いために一時的に満席状態となり他の顧客が帰ってしま
っているのか、それとも来店する顧客数自体が少ないの
かの区別を判断することができない。従って、経営戦略
を構築するのに十分なデータの把握が困難という問題が
ある。
However, in the method of grasping the customer arrival state from the number of visitors appearing on the sales slip, it is difficult to grasp for each unit time because it is judged from the total number of visitors stated on the slip. It is impossible to determine whether the customer is temporarily full and the other customer has returned because the customer has been present for a long time, or whether the number of customers who come to the store is small. Therefore, there is a problem that it is difficult to grasp sufficient data for constructing a business strategy.

【0006】一方、複数の店舗に監視員を巡回させる方
法は店内の状況を客観的に捉えることができるが、非常
駐の監視員では店舗毎に一定期間づつしかモニタしない
ため時間帯・日にち・曜日・季節等による顧客の変動を
的確に把握することができず、上記と同様に十分なデー
タ取得ができないという問題を有する。すなわち十分な
データを得るためには店舗毎に常時監視することが望ま
しいが、例えば監視カメラの画像を監視員に常時モニタ
させる方法では監視員の労力が過大になるとともに、監
視漏れや作業効率の面で現実的ではない。またビデオテ
ープに録画した画像を倍速でチェックする方法でも人間
の能力では3倍速程度が限界であり、店舗の営業時間の
すべてをチェックするには未だ長時間のモニタが必要で
ある。
On the other hand, the method of circling a watchman to a plurality of shops can objectively grasp the situation in the shop, but since a non-resident watchman monitors each shop only for a certain period, the time zone, the day, the day of the week, etc. There is a problem that it is not possible to accurately grasp changes in customers due to seasons and the like, and it is not possible to obtain sufficient data as in the above. That is, it is desirable to constantly monitor each store in order to obtain sufficient data, but for example, a method in which the image of the surveillance camera is constantly monitored by the surveillance staff causes an excessive labor of the surveillance staff, as well as oversight of monitoring and work efficiency. In terms of reality. Even with the method of checking images recorded on a video tape at double speed, the human ability is limited to about three times speed, and a long monitor is still required to check all the business hours of the store.

【0007】また、すでに店内監視カメラの画像を処理
することにより自動的に顧客を検出する技術が存在する
が、画面内の人物像を検出するために撮影画像の総ての
画素について予め用意した背景画像との輝度差あるいは
輝度比を求める差分処理を行う必要があり、比較的膨大
な処理を要していた。また、営業データとして用いるた
めには当該顧客の店舗内における移動経路やその着席位
置などの情報が必要であり、画像処理においてこれを検
出するにはさらに複雑かつ膨大な作業が必要であった。
このためには十分な処理能力を有する大型かつ高性能の
装置を用意する必要があり、例えば店舗毎に画像処理装
置を設置することを考えると現実的でなかった。
Further, there is already a technique for automatically detecting a customer by processing an image of an in-store surveillance camera. However, in order to detect a person image on the screen, all pixels of a photographed image are prepared in advance. It is necessary to perform a difference process for obtaining a brightness difference or a brightness ratio with the background image, which requires a relatively large amount of processing. Further, in order to use it as sales data, it is necessary to have information such as the travel route of the customer in the store and its seating position, and more complicated and enormous work is required to detect this in image processing.
For this purpose, it is necessary to prepare a large-scale and high-performance device having a sufficient processing capacity, which is not realistic considering, for example, installing an image processing device in each store.

【0008】このような問題に鑑み、本発明は、店舗内
における顧客位置やその移動経路を簡単な処理により検
出することができ、かつ、センタにて集中的に処理を行
うことにより店舗毎の設備負担を軽減させる監視カメラ
システム及びこれを用いた情報提供システムを提供する
ことを目的とする。
In view of such a problem, the present invention can detect the customer position in the store and the movement route thereof by a simple process, and the centralized process can be performed for each store. It is an object of the present invention to provide a surveillance camera system that reduces equipment load and an information providing system using the same.

【0009】[0009]

【課題を解決するための手段】この目的を達成すべく、
本発明は、固定的に取り付けられた監視カメラと、該カ
メラから所定間隔で連続的に撮影される画像を処理する
画像処理手段とを具え、画像内の人物像を検出してその
人物の現実空間における位置を判定する監視カメラシス
テムにおいて、前記画像処理手段が、前記撮影画像内で
人物の頭部を検出する頭部検出部と、前記頭部の画像上
での座標(第1の座標)と前記カメラの撮影範囲の現実
空間における床部分の座標(第2の座標)とを対応させ
た変換テーブルと、当該変換テーブルを参照して前記第
1の座標から対応する第2の座標を取得する人物位置判
定部とを具え、前記変換テーブルは、予め前記カメラの
撮影範囲における現実空間の床部分について第2の座標
を設定しておき、所定身長の人物の頭部が画像内で前記
第1の座標にある場合にその人物の足下が前記第2の座
標のどこに位置するかの対応関係が登録されていること
を特徴とする。
[Means for Solving the Problems] To achieve this purpose,
The present invention comprises a surveillance camera fixedly mounted and image processing means for processing images continuously captured at a predetermined interval from the camera, and detects a person image in the image to detect the reality of the person. In a surveillance camera system for determining a position in space, the image processing means detects a head of a person in the captured image, and coordinates of the head on the image (first coordinates). And a conversion table that associates the coordinates (second coordinates) of the floor portion in the real space of the shooting range of the camera with each other, and obtains the corresponding second coordinates from the first coordinates by referring to the conversion table. The conversion table sets in advance the second coordinates for the floor portion of the physical space in the photographing range of the camera, and the head of a person of a predetermined height is included in the image within the image. At the coordinate of 1 Of correspondence between feet of the person in case is located where the second coordinate it is characterized in that it is registered.

【0010】このように、監視カメラから得られる画像
から人物頭部を抽出するようにして、画面上の頭部座標
から現実にその人物のいる床部分の座標を得られるよう
にすれば、複雑膨大な画像処理により人物の全身像を精
密に抽出する必要がなくなり、処理の簡略化を図ること
ができる。また、このような処理により画面内の人物の
店舗内での位置を把握するようにすれば、監視カメラの
映像を監視員が常時モニタしなくても顧客の入り状況を
正確に得ることができる。
As described above, if the person's head is extracted from the image obtained from the surveillance camera so that the coordinates of the floor portion where the person is actually present can be obtained from the coordinates of the head on the screen, it becomes complicated. It is not necessary to accurately extract the whole-body image of a person by enormous image processing, and the processing can be simplified. Further, if the position of the person on the screen in the store is grasped by such processing, the customer's entry status can be accurately obtained without the surveillance staff constantly monitoring the image of the surveillance camera. .

【0011】この監視カメラシステムにおいて、前記頭
部検出部は、前記撮影画像から黒を抽出し、同じく黒を
抽出した背景画像における黒い部分に対応する撮影画像
の部分を除外して残った部分を前記画像内の人物像とし
て把握し、さらにこの撮影画像のY軸方向においてその
人物像の頂部を頭部として検出するようにする。このよ
うに、背景画像において黒い部分を除外するだけで人物
抽出を行うことにより、従来のように撮影画像の総ての
画素について輝度差または輝度比を算出し、これを二値
化して輝度変動部分を抽出する必要がなくなり、処理負
担の軽減を図ることができる。
In this surveillance camera system, the head detecting section extracts black from the photographed image, and removes the portion of the photographed image corresponding to the black portion in the background image from which the black is also extracted, and leaves the remaining portion. The person image in the image is grasped, and the top of the person image is detected as the head in the Y-axis direction of the photographed image. In this way, by extracting the person by simply excluding the black portion in the background image, the brightness difference or brightness ratio is calculated for all pixels in the captured image as in the conventional case, and this is binarized to change the brightness. It is not necessary to extract a part, and the processing load can be reduced.

【0012】一方、本願に係る情報提供システムは、固
定的に取り付けられた監視カメラと、該カメラから所定
間隔で連続的に撮影される画像内の人物像を検出してそ
の人物の現実空間における位置を判定する画像処理手段
と、前記撮影した画像データに少なくともその撮影日時
および人物位置を含む制御データを関連づけて蓄積する
第1の記憶領域と、前記制御データを読み込んで画像内
の人物についての人物データを作成する人物データ作成
手段と、この人物データを蓄積する第2の記憶領域と、
この人物データを適宜の形式で表示しうる表示手段とを
具える情報提供システムにおいて、前記画像処理手段
が、前記撮影画像内で人物の頭部を検出する頭部検出部
と、前記頭部の画像上での座標(第1の座標)と前記カ
メラの撮影範囲の現実空間における床部分の座標(第2
の座標)とを対応させる変換テーブルと、当該変換テー
ブルを参照して前記第1の座標から対応する第2の座標
を取得する人物位置判定部とを具え、前記変換テーブル
は、予め前記カメラの撮影範囲における現実空間の床部
分について第2の座標を設定しておき、所定身長の人物
の頭部が画像内で前記第1の座標にある場合にその人物
の足下が前記第2の座標のどこに位置するかの対応関係
が登録されていることを特徴とする。
On the other hand, the information providing system according to the present application detects a surveillance camera fixedly mounted and a person image in images continuously photographed from the camera at a predetermined interval to detect the person in the real space. The image processing means for determining the position, the first storage area for storing the captured image data in association with the control data including at least the shooting date and time and the person position, and the person in the image by reading the control data Personal data creating means for creating personal data, a second storage area for accumulating the personal data,
In an information providing system including a display unit capable of displaying the person data in an appropriate format, the image processing unit includes a head detection unit that detects a person's head in the captured image, and the head detection unit. The coordinates on the image (first coordinates) and the coordinates of the floor part in the real space of the photographing range of the camera (second coordinates)
And a person position determination unit that acquires the corresponding second coordinate from the first coordinate by referring to the conversion table, and the conversion table is stored in advance in the camera. Second coordinates are set for the floor portion of the physical space in the shooting range, and when the head of a person with a predetermined height is at the first coordinates in the image, the feet of the person are at the second coordinates. It is characterized in that the correspondence relation of where it is located is registered.

【0013】この情報提供システムにおいて、前記頭部
検出部は、前記撮影画像から黒を抽出し、同じく黒を抽
出した背景画像における黒い部分に対応する撮影画像の
部分を除外して残った部分を前記画像内の人物像として
把握し、さらにこの撮影画像のY軸方向においてその人
物像の頂部を頭部として検出することを特徴とする。
In this information providing system, the head detecting unit extracts black from the photographed image and excludes a portion of the photographed image corresponding to a black portion in the background image in which the black is extracted, and leaves a remaining portion. It is characterized in that it is grasped as a person image in the image, and the top of the person image is detected as a head in the Y-axis direction of the photographed image.

【0014】このように監視カメラの画像から簡単な処
理で人物の有無およびその位置を取得し、人物データと
して表示手段に表示してデータ提供できるようにすれ
ば、例えば飲食店の管理者がそれを見て顧客の滞在時間
や回転率等を容易に把握することができる。従って、常
時駐在の監視員を用意する必要がなくなり労力やコスト
を低減することができる。
As described above, if the presence or absence of a person and the position thereof are acquired from the image of the surveillance camera by a simple process and the person data is displayed on the display means so that the data can be provided, for example, the restaurant manager can It is possible to easily understand the customer's stay time, turnover rate, etc. Therefore, it is not necessary to prepare a monitor stationed at all times, and labor and cost can be reduced.

【0015】また、この情報提供システムにおいて、前
記人物データ作成手段は、前記制御データを連続的に読
み込み、画像内での人物の位置情報を連続的に取得する
ことで、画像内の人物の移動履歴を前記人物データとし
て作成することが望ましい。さらに、当該システムが、
前記人物データを読み込んで、画像内の人物の移動経路
を軌跡図として前記表示手段に表示する軌跡図作成手段
を具えるようにしてもよい。このようにして画面内人物
の移動履歴を取得し、さらにそれを軌跡図として表示で
きるようにすると、例えば店舗の管理者が店舗内での顧
客の移動経路を把握することができ、店舗のシート配置
やテーブル/カウンター比率の変更等に役立てることが
できる。
Further, in this information providing system, the person data creating means continuously reads the control data and continuously obtains the position information of the person in the image, thereby moving the person in the image. It is desirable to create a history as the person data. Furthermore, the system
It is also possible to include a locus diagram creation unit that reads the person data and displays the movement route of the person in the image as a locus diagram on the display unit. In this way, if the movement history of the person in the screen is acquired and it is possible to display it as a locus map, for example, the store manager can grasp the movement route of the customer in the store, and the sheet of the store can be displayed. It can be useful for changing the layout and table / counter ratio.

【0016】さらに、当該システムが、撮影日時や撮影
場所の条件を指定して画像データを要求するためのリク
エスト手段と、前記条件に合致する画像データを前記第
1の記憶領域から抽出して前記表示手段に表示させる画
像抽出手段とを具えることが望ましい。このようにシス
テムを構成すると必要に応じて実画像を確認することが
でき、経営方針のより詳細な分析が可能になるととも
に、防犯等の目的にも用いることができる。
Further, the system extracts requesting means for requesting image data by designating a shooting date and a shooting place condition, and image data matching the condition from the first storage area and extracting the image data. It is desirable to include image extraction means to be displayed on the display means. By configuring the system in this way, it is possible to confirm the actual image as necessary, and it is possible to perform a more detailed analysis of the management policy and also use it for purposes such as crime prevention.

【0017】また、この情報提供システムにおいて、前
記監視カメラと、表示手段と、リクエスト手段とが第1
の地点に設置されており、前記画像処理手段と、人物デ
ータ作成手段と、第1及び第2の記憶領域とが第2の地
点に設置されており、前記第1及び第2の地点は通信ネ
ットワークで接続されていてもよい。このようにシステ
ムを構成すれば、複数の店舗の監視カメラの画像を、画
像処理手段と人物データ作成手段と記憶領域を具える処
理センタに随時送信するようにして、当該処理センタで
画像処理を一元的に行うことができる。従って、店舗毎
に高性能の処理装置を設置する必要がなくなるととも
に、情報の一元管理が可能となる。
Further, in this information providing system, the surveillance camera, the display means and the request means are the first.
The image processing means, the person data creating means, and the first and second storage areas are installed at a second point, and the first and second points are used for communication. It may be connected by a network. If the system is configured in this way, the images of the surveillance cameras of a plurality of stores are transmitted to a processing center including image processing means, person data creating means, and a storage area at any time, and the image processing is performed in the processing center. It can be done centrally. Therefore, it is not necessary to install a high-performance processing device for each store, and the information can be centrally managed.

【0018】さらに、本発明に係る画像処理方法は、固
定的に設置された監視カメラから所定間隔で得られる撮
影画像から人物の有無を検出するとともに当該人物の現
実空間における位置を判定する画像処理方法において、
予め前記カメラの撮影範囲に人物がいない状態で撮影し
た背景画像と前記撮影画像とを比較することにより画像
内に人物の有無を判定するステップと、前記撮影画像に
おいて前記人物の頭部の座標を検出するステップと、こ
こで検出した頭部の座標からその人物が現実空間におい
てどの位置にいるかを判定するステップと、を含むこと
を特徴とする。
Furthermore, the image processing method according to the present invention is an image processing for detecting the presence or absence of a person from photographed images obtained at fixed intervals from a surveillance camera fixedly installed and for determining the position of the person in the real space. In the method
A step of determining the presence / absence of a person in the image by comparing a background image photographed in a state where there is no person in the photographing range of the camera in advance, and the coordinates of the head of the person in the photographed image. It is characterized by including a step of detecting, and a step of determining at which position in the real space the person is from the coordinates of the detected head.

【0019】ここで、前記画像内に人物の有無を判定す
るステップは、前記撮影画像から黒い部分を抽出するス
テップと、同じく黒い部分を抽出した背景画像における
黒い部分に対応する撮影画像の部分を除外するステップ
と、その後に撮影画像に有意の黒い部分が残ったら人物
有りと判断するステップと、を含むことを特徴とする。
Here, the step of determining the presence / absence of a person in the image includes the step of extracting a black portion from the photographed image and the step of extracting the black portion from the photographed image corresponding to the black portion in the background image. It is characterized by including a step of excluding and a step of determining that there is a person if a significant black portion remains in the captured image after that.

【0020】また、前記人物の頭部の座標を検出するス
テップは、前記撮影画像に残った黒い部分のY軸方向に
おける最も上の座標を検出することにより行うことを特
徴とする。
Further, the step of detecting the coordinates of the head of the person is performed by detecting the uppermost coordinates in the Y-axis direction of the black portion remaining in the photographed image.

【0021】また、前記人物の位置を判定するステップ
は、予め前記監視カメラの撮影範囲の床部分の座標を設
定するステップと、前記撮影画像における座標と前記撮
影範囲の床部分の座標を関連づけるステップと、所定身
長の人物の頭部が前記検出した頭部の座標にある場合の
その人物の足下の前記画像における座標を判定するステ
ップと、ここで判定した足下の座標から前記撮影範囲の
床部分の座標を導き出すステップと、を含むことを特徴
とする。
In the step of determining the position of the person, the step of previously setting the coordinates of the floor portion of the photographing range of the surveillance camera, and the step of associating the coordinates in the photographed image with the coordinates of the floor portion of the photographing range. And a step of determining the coordinates in the image of the feet of the person when the head of the person having a predetermined height is at the coordinates of the detected head, and the floor portion of the photographing range from the coordinates of the feet determined here. And deriving the coordinates of.

【0022】[0022]

【発明の実施の形態】本発明の実施の形態について、添
付の図面を参照しながら以下に詳細に説明する。図1は
本発明に係る情報提供システムの全体像を示す図であ
る。図1を参照すると、店舗A、B、Cが高速ネットワ
ーク10を介して処理センタ20に接続されている。店
舗A〜Cはいずれも軽飲食を提供するレストランやコー
ヒーショップであり、例えば店舗Aは当該店舗内の客席
部分に向けられたカメラA1及びA2と、処理センタ2
0へデータ要求を行うリクエスト手段31と、処理セン
タ20から送られるデータを表示する表示手段32とを
具えている。店舗B及びCも店舗Aと同様の設備を有し
ている。以下の説明ではこれら店舗の代表例として店舗
Aのみについて説明するが、店舗B及びCも同様の構成
であり同じ動作をするものとする。店内カメラA1、A
2はそれぞれ客席に向けて固定的に取り付けられてお
り、所定期間(例えば2秒)毎に撮像して画像データを
順次処理センタ20に送信する。また、店内カメラの画
像は同時に店内の表示装置32に表示するようにしても
よい。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below in detail with reference to the accompanying drawings. FIG. 1 is a diagram showing an overview of the information providing system according to the present invention. Referring to FIG. 1, stores A, B and C are connected to a processing center 20 via a high speed network 10. Each of the stores A to C is a restaurant or a coffee shop that provides light meals. For example, the store A has cameras A1 and A2 that are aimed at the seats in the store, and a processing center 2.
It comprises a request means 31 for making a data request to 0 and a display means 32 for displaying the data sent from the processing center 20. Stores B and C also have the same equipment as store A. In the following description, only store A will be described as a representative example of these stores, but stores B and C have the same configuration and operate in the same manner. In-store cameras A1, A
Reference numerals 2 are fixedly mounted toward the passenger seats, respectively, and pick up images every predetermined period (for example, 2 seconds) and sequentially transmit the image data to the processing center 20. Further, the image of the in-store camera may be displayed on the display device 32 in the store at the same time.

【0023】店舗A〜Cと処理センタ20を接続する高
速ネットワーク10は例えば光ファイバケーブル等を用
いる通信ネットワークであり、画像データなど比較的大
きなデータの転送に適している。ただし、ネットワーク
10は通信ネットワークであればこの例に限られず、例
えばインターネット等の公共のネットワークであると専
用ネットワークであるとを問わない。
The high speed network 10 connecting the shops A to C and the processing center 20 is a communication network using, for example, an optical fiber cable, and is suitable for transferring relatively large data such as image data. However, the network 10 is not limited to this example as long as it is a communication network, and it does not matter whether it is a public network such as the Internet or a dedicated network.

【0024】図2は、処理センタ20の構成を示すブロ
ック図である。この処理センタ20は、処理サーバ21
と、大容量のデータストレージ22とを具える。処理サ
ーバ21は、店舗A〜Cと通信を行う通信手段23と、
処理センタ20全体の動作を制御するとともに画像デー
タから人物の移動記録や滞在時間等の顧客データを作成
したり、顧客データから人物の移動の軌跡図を作成した
り、リクエスト手段からの要求に応じて実画像データを
配信する処理を行う処理制御手段24と、店舗A〜Cか
ら送られる画像から人物の有無や画像処理手段25とを
具えている。一方、データストレージ22は、各店舗か
ら送られる画像データを後述する制御データとともに蓄
積する画像データ記憶領域26と、各店舗における顧客
の滞在に関するデータを蓄積する顧客データ記録領域2
7と、各店舗から送られる画像における座標と実際の店
舗における位置座標との相関が登録された画面/空間座
標対照テーブル28とを具えている。
FIG. 2 is a block diagram showing the configuration of the processing center 20. The processing center 20 includes a processing server 21.
And a large-capacity data storage 22. The processing server 21 includes a communication unit 23 that communicates with the stores A to C,
The operation of the entire processing center 20 is controlled, customer data such as person's movement record and stay time is created from the image data, a locus map of person's movement is created from the customer data, and in response to a request from request means. It is provided with a processing control means 24 for carrying out processing for delivering actual image data by means of an image processing means 25 and presence / absence of a person from the images sent from the stores A to C. On the other hand, the data storage 22 stores an image data storage area 26 in which image data sent from each store is stored together with control data to be described later, and a customer data recording area 2 in which data regarding a customer's stay in each store is stored.
7 and a screen / space coordinate comparison table 28 in which the correlation between the coordinates in the image sent from each store and the position coordinates in the actual store is registered.

【0025】図3は、処理サーバ21の画像処理手段2
5による人物位置検出工程を説明するためのフローチャ
ートである。この工程では画像内に人物がいるか否か、
いる場合にはその店舗内での位置を検出することを目的
とする。ここで、本願発明者は日本人の頭髪が黒いこと
に着目し、撮影画像内でこの黒い頭髪部分により人物の
有無及びその位置を検出するようにして、処理の簡略化
を達成するようにしている。
FIG. 3 shows the image processing means 2 of the processing server 21.
6 is a flowchart for explaining a person position detecting process according to No. 5; In this step, whether there are people in the image,
If so, the purpose is to detect the position within the store. Here, the inventor of the present application pays attention to the fact that Japanese hair is black, and detects the presence or absence of a person and its position in the captured image by the black hair portion so as to achieve simplification of processing. There is.

【0026】店舗A〜Cから連続的に送信される店内カ
メラの撮影画像は処理サーバ21の通信手段23を介し
て画像処理手段25に送られる。図3のフローを参照す
ると、画像処理手段25は、1フレーム毎に画像データ
を読み込んで(ステップS11)、その画像から黒を抽
出する(ステップS12)。この処理は撮影画像の画素
毎に輝度を測定し、予め設定したしきい値以下の画素の
みを抽出することにより行う。ここで、このステップの
目的は頭髪部分を検出できれば達成されるので、黒色又
はそれに近い色のみを検出できる程度にしきい値を低く
設定すれば、不要な部分の抽出による処理負担を回避す
ることができる。カメラの撮影画像の例を図4(a)に
示し、当該撮影画像から黒を抽出した状態を図4(b)
に示す。
The images taken by the in-store cameras continuously transmitted from the stores A to C are sent to the image processing means 25 via the communication means 23 of the processing server 21. Referring to the flow of FIG. 3, the image processing means 25 reads the image data for each frame (step S11) and extracts black from the image (step S12). This processing is performed by measuring the brightness of each pixel of the captured image and extracting only the pixels having a preset threshold value or less. Here, the purpose of this step is achieved if the hair portion can be detected, so if the threshold value is set low enough to detect only black or a color close to it, the processing load due to extraction of unnecessary portions can be avoided. it can. FIG. 4A shows an example of an image captured by the camera, and FIG. 4B shows a state in which black is extracted from the captured image.
Shown in.

【0027】次に、画像処理手段25は予め用意された
背景画像との差分処理を行うことにより、画像内の人物
像を抽出する(ステップS13)。この背景画像は予め
カメラの撮影範囲に人物がいない状態で撮影した画像か
ら上記と同様の処理で黒を抽出したものを用いる。この
背景画像における黒い部分に対応する撮影画像の部分を
除外することにより、図4(c)に示すように人物像の
みが抽出される。この画像において有意の黒い部分があ
れば人物像あり、なければ人物像なしと判断することが
できる(ステップS14)。このように、背景画像にお
いて黒い部分を除外するだけで人物抽出を行うことによ
り、従来のように撮影画像の総ての画素について輝度差
または輝度比を算出し、これを二値化して輝度変動部分
を抽出する必要がなくなり、処理負担の軽減を図ること
ができる。
Next, the image processing means 25 extracts the person image in the image by performing the difference processing with the background image prepared in advance (step S13). As this background image, a black image extracted in advance by the same process as described above is used from an image captured in a state where there are no persons in the photographing range of the camera. By excluding the part of the captured image corresponding to the black part in this background image, only the human image is extracted as shown in FIG. If there is a significant black portion in this image, it can be determined that there is a person image, and if there is no significant image portion (step S14). In this way, by extracting the person by simply excluding the black portion in the background image, the brightness difference or brightness ratio is calculated for all pixels in the captured image as in the conventional case, and this is binarized to change the brightness. It is not necessary to extract a part, and the processing load can be reduced.

【0028】次に、画像内に人物がいる場合はその頭頂
部の座標を検出する(ステップS15)。この処理は図
4(c)に示す画像内の黒い部分の最上部の座標を検出
することにより行い、例えば画面上端部からX軸方向に
走査を行い最初に黒い画素にヒットした座標を記憶する
ようにする。ここでヒットした座標を人物の頭頂部と把
握するようにすれば、従来人物像を抽出するために行っ
ていた輝度変動部分の詳細な面積調査や特徴抽出などの
複雑な処理を行わずに人物位置を把握することが可能と
なる。
Next, if there is a person in the image, the coordinates of the crown of the person are detected (step S15). This processing is performed by detecting the coordinates of the uppermost part of the black portion in the image shown in FIG. 4C. For example, scanning is performed from the upper end of the screen in the X-axis direction and the coordinates at which the first black pixel is hit are stored. To do so. By grasping the hit coordinates here as the top of the person's head, it is possible to perform complicated processing such as detailed area survey and feature extraction of the brightness fluctuation part that was conventionally performed to extract the person image. It becomes possible to grasp the position.

【0029】次に、画像処理手段25は、データストレ
ージ22にある座標対照テーブル28を参照して、画面
上における人物頭部の座標から現実の店舗内における位
置座標を導き出し、その人物の位置として記憶する(ス
テップS16)。この座標対照テーブル28には、画面
上の任意の座標に標準的な身長(例えば140〜180
cm)の人物の頭部がある場合に、その人物が現実の店
舗内で位置している店内座標が登録されている。すなわ
ち、前もって撮像範囲内に標準的な身長の人物がいる場
合の、画面上に表れる頭部の座標と、現実にその人物が
位置する店内における座標の対応関係を予め対照テーブ
ルに登録しておき、画像処理手段25がそれを参照して
簡単に当該人物の位置を把握できるようにする。
Next, the image processing means 25 refers to the coordinate comparison table 28 in the data storage 22, derives the actual position coordinates in the store from the coordinates of the person's head on the screen, and determines the position of the person. It is stored (step S16). This coordinate comparison table 28 has a standard height (for example, 140 to 180) at arbitrary coordinates on the screen.
cm) has the head of the person, the in-store coordinates where the person is located in the actual store are registered. That is, when a person with a standard height is within the imaging range, the correspondence between the coordinates of the head appearing on the screen and the coordinates in the store where the person is actually located is registered in advance in the comparison table. The image processing unit 25 can easily recognize the position of the person by referring to the image processing unit 25.

【0030】図5を参照してこれをイメージ的に説明す
る。店内の監視カメラは客席部分に向けて固定的に設置
されているので、図5(a)に示すように、予めその撮
影範囲における店内の床部分について店内座標を設定し
ておく。その後、高さH(例えば160cm)に設定し
た仮想の人物の頭部が画面上の任意の座標にある場合
に、その人物の足下が店内のどの座標に位置するかの対
応関係をテーブル28に登録する。図5(a)に示す例
では、画面上の頭部座標が(x,y)である場合の
対応する店内座標は(b,4)であり、頭部座標が(x
,y)である場合の対応する店内座標は(f,2)
である。この対応関係を総てテーブル28に登録してお
く。図5(b)に対照テーブル28の例を示す。このよ
うにして、画像処理手段25は対照テーブル28を参照
することにより、画面内の人物の店内座標を得ることが
できる。
This will be described conceptually with reference to FIG. Since the surveillance camera in the store is fixedly installed toward the passenger seat portion, as shown in FIG. 5A, in-store coordinates are set in advance for the floor portion of the store in the photographing range. After that, when the head of the virtual person set to the height H (for example, 160 cm) is at arbitrary coordinates on the screen, the table 28 shows the correspondence relationship at which coordinate in the store the person's feet are located. register. In the example shown in FIG. 5A, when the head coordinates on the screen are (x 1 , y 1 ), the corresponding in-store coordinates are (b, 4) and the head coordinates are (x
The corresponding in-store coordinates when ( 2 , y 2 ) are (f, 2)
Is. All of these correspondences are registered in the table 28. FIG. 5B shows an example of the comparison table 28. In this way, the image processing means 25 can obtain the in-store coordinates of the person on the screen by referring to the comparison table 28.

【0031】画像処理手段25は画面上の頭部座標から
その人物の店内座標を得た後、ステップS11で読み込
んだ画像データに店コード、カメラコード、撮影日時、
人物の有無およびその店内座標などの制御データを付加
して(ステップS17)、データストレージ22の画像
データ記憶領域26に保存する(ステップS18)。こ
のデータ構成の例を図6に示す。保存されるデータの前
半部に制御データとして、店舗A、カメラA1、人物位
置(b,4)、日時などの情報が付加されている。この
ようにして、店舗A〜Cから連続的に送られてくる画像
データが順次処理されデータストレージ22に蓄積され
る。
The image processing means 25 obtains the in-store coordinates of the person from the head coordinates on the screen, and then stores the store code, camera code, shooting date and time in the image data read in step S11.
Control data such as the presence / absence of a person and the coordinates of the person in the store are added (step S17) and stored in the image data storage area 26 of the data storage 22 (step S18). An example of this data structure is shown in FIG. Information such as store A, camera A1, person position (b, 4), date and time is added as control data to the first half of the stored data. In this way, the image data continuously sent from the stores A to C are sequentially processed and stored in the data storage 22.

【0032】図7は、処理制御手段24における顧客デ
ータ作成工程を説明するフローチャートである。画像処
理手段25により画像データに制御データが付加される
と、処理制御手段24はこの制御データを読み込む(ス
テップS21)。処理制御手段24は画像内の人物の有
無を参照し、当該画像内に人物像がなければそのまま処
理を終了する(ステップS22)。また、この場合は画
像データ自体が不要であるとも考えられるので、データ
ストレージ22からこのデータレコード全体を削除する
ようにしてもよい。一方、画像内に人物がいる場合、当
該人物に人物コードを付与するとともに、その時刻と当
該人物の店内座標を読みとり、データストレージ22の
顧客データ記録領域27に登録する(ステップS2
3)。図8に顧客データ記憶領域27に登録される顧客
データの構成例を示す。図8に示すように、レコードご
とに顧客コード、当該顧客の移動経路が登録される座標
1〜座標nまでのセル、当該顧客の滞在時間、及び着席
シートなどを記録する領域が用意されている。上記ステ
ップS23の処理により、新規の人物が検出されると人
物コードが0001から降順に付与され、「座標1」の
欄に初回検出時の時刻及びその店内座標が登録される。
FIG. 7 is a flow chart for explaining the customer data creating process in the processing control means 24. When the control data is added to the image data by the image processing means 25, the processing control means 24 reads the control data (step S21). The processing control unit 24 refers to the presence / absence of a person in the image, and if there is no human image in the image, ends the processing as it is (step S22). Further, in this case, since it is considered that the image data itself is unnecessary, the entire data record may be deleted from the data storage 22. On the other hand, when there is a person in the image, the person code is given to the person, the time and the in-store coordinates of the person are read, and registered in the customer data recording area 27 of the data storage 22 (step S2).
3). FIG. 8 shows a configuration example of customer data registered in the customer data storage area 27. As shown in FIG. 8, for each record, an area for recording a customer code, a cell from coordinate 1 to coordinate n in which the travel route of the customer is registered, a staying time of the customer, a sitting seat, and the like is prepared. . By the process of step S23, when a new person is detected, the person code is added in descending order from 0001, and the time of the first detection and its in-store coordinates are registered in the column of "coordinate 1".

【0033】その後、処理制御手段24は次のデータを
読み込み(ステップS24)、人物像の有無から当該人
物が画面からフレームアウトしたか否かを判断する(ス
テップS25)。ここで画面内に人物像がなければ、当
該人物は退店したと判断されるためデータ記録を終了
し、この人物コードについて以降の記録を行わない(ス
テップS26)。一方、このデータにも人物がいる場
合、前回のデータから人物位置が変化しているかを判断
する(ステップS27)。これは今回データと前回デー
タの店内座標を比較することにより行われ、店内座標が
一致する場合には移動なしと判断して、記録を行わない
(ステップS28)。店内座標が一致しない場合には当
該人物が移動したと判断して、この顧客0001のレコ
ードにおいて座標2以降のセルに時刻と新たな店内座標
を記録する(図8参照)。その後、ステップS24に戻
り次のデータを読み込んで同様に処理を行っていく。こ
のようにして、顧客が画面内にフレームインしてからフ
レームアウトするまでの移動記録が得られる。
After that, the processing control means 24 reads the next data (step S24) and judges whether or not the person is out of the screen based on the presence / absence of the person image (step S25). If there is no person image on the screen, it is determined that the person has left the store, so the data recording is ended, and the person code is not recorded thereafter (step S26). On the other hand, if there is a person also in this data, it is determined whether or not the person position has changed from the previous data (step S27). This is performed by comparing the in-store coordinates of the current data and the previous data. If the in-store coordinates match, it is determined that there is no movement and recording is not performed (step S28). If the in-store coordinates do not match, it is determined that the person has moved, and the time and new in-store coordinates are recorded in the cells of coordinate 2 and later in this customer 0001 record (see FIG. 8). After that, the process returns to step S24, the next data is read, and the same process is performed. In this way, the movement record from when the customer frame-in the screen until frame-out is obtained.

【0034】その後、処理制御手段24は当該人物につ
いて最後に記録した時刻から最初に記録した時刻を減算
してその人物の滞在時間を求め、図8に示す滞在時間の
欄に記録する。また、その人物について記録されたデー
タのうち、所定期間以上移動がなかった座標あるいは最
も長く移動がなかった座標をその人物の着席位置と判断
して、その店内座標を記録する。この場合、予めその店
内座標にあるシート番号を登録しておき、座標と対照す
ることによりその人物の着席シートを記録するようにし
てもよい。図8に示す例では、人物コード0001につ
いて最後に検出された座標5の時刻が11:40:2
4、最初に検出された座標1の時刻が10:25:10
より、減算するとこの人物の滞在時間は約1時間15分
と判断できる。また、座標3と座標4の時刻が最も離れ
ていることから座標3の位置が着席場所であると判断し
て、その座標を当該顧客の着席シートとして記録してい
る。このようにして、顧客毎の滞在時間や着席シートの
情報を蓄積することができる。
After that, the processing control means 24 subtracts the first recorded time from the last recorded time for the person to obtain the staying time of the person, and records it in the staying time column shown in FIG. Further, of the data recorded for the person, the coordinates that have not moved for a predetermined period of time or the coordinates that have not moved for the longest time are determined to be the sitting position of the person, and the in-store coordinates are recorded. In this case, the seat number at the in-store coordinates may be registered in advance, and the seating seat of the person may be recorded by comparing with the coordinates. In the example shown in FIG. 8, the time of the coordinate 5 detected last for the person code 0001 is 11: 40: 2.
4, the time of the first detected coordinate 1 is 10:25:10
Therefore, by subtracting, it can be determined that the staying time of this person is about 1 hour and 15 minutes. Further, since the time points of coordinates 3 and 4 are the farthest apart, it is determined that the position of coordinate 3 is the seating location, and the coordinates are recorded as the seating seat of the customer. In this way, it is possible to accumulate the staying time and the seating seat information for each customer.

【0035】このように蓄積した画像データや顧客デー
タは、必要に応じて適宜の店舗に配信される。この場
合、処理センタ20は例えば店舗の営業終了後にその日
に蓄積された顧客データを各店舗に配信するようにして
もよいし、例えば店舗Aのリクエスト手段31からの要
求に応じて当該店舗Aについての顧客データを配信する
ようにしてもよい。配信された顧客データは店舗Aの表
示手段32に表示させて確認することができる。これに
より、各店舗において来店客の数、滞在時間、着席シー
ト、移動経路などを把握することができる。従って、店
舗側でこのデータをもとに商品種類の決定やテーブル/
カウンター比率等の改善計画を立てることができる。
The image data and the customer data thus accumulated are delivered to an appropriate store as needed. In this case, the processing center 20 may, for example, deliver the customer data accumulated on the day after the store is closed to each store, or, for example, regarding the store A in response to a request from the request means 31 of the store A. The customer data may be distributed. The delivered customer data can be displayed and confirmed on the display means 32 of the store A. As a result, it is possible to grasp the number of customers visiting the store, the staying time, the seating seat, the moving route, and the like at each store. Therefore, the store side decides the product type and the table /
Can make improvement plans such as counter ratio.

【0036】また、この顧客データ27を用いれば、例
えば図9に示すように顧客毎の移動経路を軌跡図として
表すこともできる。図9は、図8に示す顧客0001の
店舗内での移動軌跡を表しており、店舗における空間座
標をX軸、Y軸として表した図上に顧客の位置座標1〜
5をマークして順番に線で繋ぐことにより得ることがで
きる。このデータ変換処理は処理サーバ20の処理制御
手段24が行ってから各店舗に配信してもよいし、図8
に示す顧客データを受信した後に店舗側で行うようにし
てもよい。
Further, by using the customer data 27, it is possible to represent the travel route for each customer as a locus diagram as shown in FIG. 9, for example. FIG. 9 shows the locus of movement of the customer 0001 in the store shown in FIG. 8, and the position coordinates 1 to 1 of the customer are shown on the diagram in which the spatial coordinates in the store are shown as the X axis and the Y axis.
It can be obtained by marking 5 and connecting with lines in order. This data conversion processing may be performed by the processing control means 24 of the processing server 20 and then distributed to each store.
It may be performed at the store after receiving the customer data shown in FIG.

【0037】また、各店舗から送られる画像データも処
理センタ20のデータストレージ22に蓄積されるた
め、店舗側の要求に応じて画像データを配信することが
できる。すなわち、例えば店舗側で顧客データを用いた
分析に際して実画像を確認したい場合に、リクエスト手
段31から店コード、カメラコード、日付、時刻等を指
定して画像データの要求を処理センタ20に送信するよ
うにする。処理センタ20はこの要求を受けると、処理
制御手段24が要求情報に合致する画像データをデータ
ストレージ22の画像データ記憶領域25から抽出し、
要求元の店舗へ配信するようにする。これにより店舗側
にて必要な実画像を確認することができ、より詳細な分
析が可能になるとともに防犯等の目的にも用いることが
できる。
Since the image data sent from each store is also stored in the data storage 22 of the processing center 20, the image data can be distributed in response to the store's request. That is, for example, when the store side wants to confirm an actual image during analysis using customer data, the request means 31 transmits a request for image data to the processing center 20 by designating the store code, camera code, date, time, and the like. To do so. When the processing center 20 receives this request, the processing control means 24 extracts the image data matching the request information from the image data storage area 25 of the data storage 22,
Try to deliver to the requesting store. As a result, the actual image required can be confirmed on the store side, which enables more detailed analysis and can also be used for purposes such as crime prevention.

【0038】[0038]

【発明の効果】上記に詳細に説明したように、本発明に
よれば、監視カメラの撮影画像内での人物検出およびそ
の位置判定を簡単な処理で行うようにしているため、比
較的複雑膨大であった従来の画像処理を不要として処理
の高速化を図ることができる。これにより、例えば処理
センタ20が複数の店舗から複数のカメラ画像を受け取
る場合にも処理の遅延を生じることなくシステムを運用
することが可能となる。
As described in detail above, according to the present invention, since the person detection and the position determination in the image captured by the surveillance camera are performed by simple processing, it is relatively complicated and huge. It is possible to speed up the processing without the need for the conventional image processing. Thereby, for example, even when the processing center 20 receives a plurality of camera images from a plurality of stores, it is possible to operate the system without causing a processing delay.

【0039】また、店舗側は常時駐在の監視員を用意す
ることなく正確な顧客の滞在時間や移動経路を把握する
ことができるため、監視労力やその費用を低減させるこ
とができる。
Moreover, since the store side can accurately grasp the staying time and the moving route of the customer without preparing a monitor stationed at all times, the monitoring labor and the cost thereof can be reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る情報提供システムの実施形態の構
成を示す図である。
FIG. 1 is a diagram showing a configuration of an embodiment of an information providing system according to the present invention.

【図2】図1に示す処理センタ20の構成を示す図であ
る。
FIG. 2 is a diagram showing a configuration of a processing center 20 shown in FIG.

【図3】図2に示す画像処理手段25の人物位置判定処
理を説明するフローチャートである。
FIG. 3 is a flowchart illustrating a person position determination process of image processing means 25 shown in FIG.

【図4】画像処理手段25の処理過程における画像例を
示す図である。
FIG. 4 is a diagram illustrating an example of an image in a processing process of an image processing unit 25.

【図5】(a)は画像処理手段25の人物位置判定にお
ける空間座標を説明するための図であり、(b)は画面
/空間座標対照テーブルの例を示す図である。
5A is a diagram for explaining spatial coordinates in the person position determination of the image processing means 25, and FIG. 5B is a diagram showing an example of a screen / spatial coordinate comparison table.

【図6】画像データ記憶領域26に保存されるデータ構
成を示す図である。
6 is a diagram showing a data structure stored in an image data storage area 26. FIG.

【図7】処理制御手段24の移動経路判定処理を説明す
るフローチャートである。
FIG. 7 is a flowchart illustrating a movement route determination process of the process control unit 24.

【図8】顧客データ記憶領域27に登録されるデータ構
成を示す図である。
8 is a diagram showing a data structure registered in a customer data storage area 27. FIG.

【図9】顧客の移動経路を軌跡図に表した状態を示す図
である。
FIG. 9 is a diagram showing a state in which a travel route of a customer is represented in a locus diagram.

【符号の説明】[Explanation of symbols]

A〜C 店舗 A1、A2 監視カメラ 10 高速ネットワーク 20 処理センタ 21 処理サーバ 22 大容量データストレージ 23 通信手段 24 処理制御手段 25 画像処理手段 26 画像データ記憶領域 27 顧客データ記憶領域 28 画面/空間座標対照テーブル 31 リクエスト手段 32 表示手段 A to C stores A1, A2 surveillance camera 10 high-speed network 20 processing center 21 Processing server 22 Large capacity data storage 23 Communication means 24 Processing control means 25 Image processing means 26 Image data storage area 27 Customer data storage area 28 screen / space coordinate comparison table 31 Request Means 32 display means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/60 150 G06T 7/60 150B G08B 25/00 510 G08B 25/00 510F 510M H04N 5/915 H04N 5/91 K Fターム(参考) 5B057 AA19 CH01 DA07 DC22 DC32 5C053 FA11 GB06 GB40 JA16 JA22 JA24 KA24 LA01 LA14 5C054 CA04 CC05 CE14 CH02 DA06 EA05 FC03 FC15 FE00 FE02 FE09 GA00 GB02 GB05 GB15 GD01 HA18 5C087 AA02 AA03 AA04 AA09 AA24 DD05 DD06 DD20 EE01 EE02 GG02 GG06 GG19 GG21 5L096 BA02 CA02 FA14 FA69 GA08 JA11 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G06T 7/60 150 G06T 7/60 150B G08B 25/00 510 G08B 25/00 510F 510M H04N 5/915 H04N 5 / 91 K F term (reference) 5B057 AA19 CH01 DA07 DC22 DC32 5C053 FA11 GB06 GB40 JA16 JA22 JA24 KA24 LA01 LA14 5C054 CA04 CC05 CE14 CH02 DA06 EA05 FC03 FC15 FE00 FE02 FE09 GA00 GB02 GB05 GB15 GD01 A24 A05A03 A02 A05A0A02 A02 A05A0A02 DD20 EE01 EE02 GG02 GG06 GG19 GG21 5L096 BA02 CA02 FA14 FA69 GA08 JA11

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 固定的に取り付けられた監視カメラと、
該カメラから所定間隔で連続的に撮影される画像を処理
する画像処理手段とを具え、画像内の人物像を検出して
その人物の現実空間における位置を判定する監視カメラ
システムにおいて、前記画像処理手段が、前記撮影画像
内で人物の頭部を検出する頭部検出部と、前記頭部の画
像上での座標(第1の座標)と前記カメラの撮影範囲の
現実空間における床部分の座標(第2の座標)とを対応
させる変換テーブルと、当該変換テーブルを参照して前
記第1の座標から対応する第2の座標を取得する人物位
置判定部とを具え、前記変換テーブルは、予め前記カメ
ラの撮影範囲における現実空間の床部分について第2の
座標を設定しておき、所定身長の人物の頭部が画像内で
前記第1の座標にある場合にその人物の足下が前記第2
の座標のどこに位置するかの対応関係が登録されている
ことを特徴とする監視カメラシステム。
1. A surveillance camera fixedly mounted,
An image processing means for processing images continuously captured at a predetermined interval from the camera, the monitoring camera system for detecting a person image in the image and determining the position of the person in the real space, the image processing A means detects a head of a person in the photographed image, a coordinate (first coordinate) on the image of the head, and a coordinate of a floor portion in a real space of a photographing range of the camera. A conversion table that associates the (second coordinates) with each other, and a person position determination unit that refers to the conversion table and acquires the corresponding second coordinates from the first coordinates. A second coordinate is set for the floor portion of the physical space in the shooting range of the camera, and when the head of a person with a predetermined height is at the first coordinate in the image, the person's feet are the second
The surveillance camera system is characterized in that the correspondence relation of where the coordinates are located is registered.
【請求項2】 請求項1に記載の監視カメラシステムに
おいて、前記頭部検出部は、前記撮影画像から黒を抽出
し、同じく黒を抽出した背景画像における黒い部分に対
応する撮影画像の部分を除外して残った部分を前記画像
内の人物像として把握し、さらにこの撮影画像のY軸方
向においてその人物像の頂部を頭部として検出すること
を特徴とする監視カメラシステム。
2. The surveillance camera system according to claim 1, wherein the head detecting unit extracts black from the captured image, and extracts a portion of the captured image corresponding to a black portion in the background image in which the black is also extracted. A surveillance camera system characterized in that the remaining portion after exclusion is grasped as a human figure in the image, and the top of the human figure is detected as a head in the Y-axis direction of the photographed image.
【請求項3】 固定的に取り付けられた監視カメラと、
該カメラから所定間隔で連続的に撮影される画像内の人
物像を検出してその人物の現実空間における位置を判定
する画像処理手段と、前記撮影した画像データに少なく
ともその撮影日時および人物位置を含む制御データを関
連づけて蓄積する第1の記憶領域と、前記制御データを
読み込んで画像内の人物についての人物データを作成す
る人物データ作成手段と、この人物データを蓄積する第
2の記憶領域と、この人物データを適宜の形式で表示し
うる表示手段とを具える情報提供システムにおいて、 前記画像処理手段が、前記撮影画像内で人物の頭部を検
出する頭部検出部と、前記頭部の画像上での座標(第1
の座標)と前記カメラの撮影範囲の現実空間における床
部分の座標(第2の座標)とを対応させる変換テーブル
と、当該変換テーブルを参照して前記第1の座標から対
応する第2の座標を取得する人物位置判定部とを具え、 前記変換テーブルは、予め前記カメラの撮影範囲におけ
る現実空間の床部分について第2の座標を設定してお
き、所定身長の人物の頭部が画像内で前記第1の座標に
ある場合にその人物の足下が前記第2の座標のどこに位
置するかの対応関係が登録されていることを特徴とする
情報提供システム。
3. A surveillance camera fixedly mounted,
Image processing means for detecting a person image in images continuously shot at a predetermined interval from the camera to determine the position of the person in the real space, and at least the shooting date and time and the person position in the shot image data. A first storage area for associating and storing control data including the same; a person data creating means for reading the control data to create person data for a person in an image; and a second storage area for storing this person data. An information providing system including a display unit capable of displaying the person data in an appropriate format, wherein the image processing unit detects a head of a person in the captured image, and the head detecting unit. Coordinates on the image (first
Table) and a coordinate (second coordinate) of the floor portion in the real space of the shooting range of the camera, and a second coordinate corresponding to the first coordinate with reference to the conversion table. A person position determination unit that acquires a position of the person in the image in which the second coordinate is set in advance for the floor portion of the real space in the shooting range of the camera, The information providing system, wherein a correspondence relationship of where the person's feet are located in the second coordinate when the person is in the first coordinate is registered.
【請求項4】 請求項3に記載の情報提供システムにお
いて、前記頭部検出部は、前記撮影画像から黒を抽出
し、同じく黒を抽出した背景画像における黒い部分に対
応する撮影画像の部分を除外して残った部分を前記画像
内の人物像として把握し、さらにこの撮影画像のY軸方
向においてその人物像の頂部を頭部として検出すること
を特徴とする情報提供システム。
4. The information providing system according to claim 3, wherein the head detecting unit extracts black from the captured image, and extracts a portion of the captured image corresponding to a black portion in the background image in which the black is also extracted. An information providing system, characterized in that a remaining portion after exclusion is grasped as a human figure in the image, and the top of the human figure is detected as a head in the Y-axis direction of the photographed image.
【請求項5】 請求項3又は4に記載の情報提供システ
ムにおいて、前記人物データ作成手段は、前記制御デー
タを連続的に読み込み、画像内での人物の位置情報を連
続的に取得することで、画像内の人物の移動履歴を前記
人物データとして作成することを特徴とする情報提供シ
ステム。
5. The information providing system according to claim 3, wherein the person data creating unit continuously reads the control data and continuously obtains position information of the person in the image. An information providing system characterized in that a movement history of a person in an image is created as the person data.
【請求項6】 請求項5に記載の情報提供システムにお
いて、当該システムがさらに、前記人物データを読み込
んで、画像内の人物の移動経路を軌跡図として前記表示
手段に表示する軌跡図作成手段を具えることを特徴とす
る情報提供システム。
6. The information providing system according to claim 5, wherein the system further comprises a locus diagram creating means for reading the person data and displaying a moving route of the person in the image as a locus diagram on the display means. An information providing system characterized by comprising.
【請求項7】 請求項3乃至6に記載の情報提供システ
ムにおいて、当該システムがさらに、撮影日時や撮影場
所の条件を指定して画像データを要求するためのリクエ
スト手段と、前記条件に合致する画像データを前記第1
の記憶領域から抽出して前記表示手段に表示させる画像
提供手段とを具えることを特徴とする情報提供システ
ム。
7. The information providing system according to claim 3, wherein the system further complies with the requesting means for requesting image data by designating a shooting date and time and a shooting location condition. The image data is the first
And an image providing unit which is extracted from the storage area of the display unit and is displayed on the display unit.
【請求項8】 請求項3乃至7に記載の情報提供システ
ムにおいて、前記監視カメラと、表示手段と、リクエス
ト手段とが第1の地点に設置されており、前記画像処理
手段と、人物データ作成手段と、第1及び第2の記憶領
域とが第2の地点に設置されており、前記第1及び第2
の地点は通信ネットワークで接続されていることを特徴
とする情報提供システム。
8. The information providing system according to claim 3, wherein the surveillance camera, the display unit, and the request unit are installed at a first point, and the image processing unit and the person data are created. The means and the first and second storage areas are installed at a second point, and the first and second storage areas are provided.
Is an information providing system characterized by being connected by a communication network.
【請求項9】 固定的に設置された監視カメラから所定
間隔で得られる撮影画像から人物の有無を検出するとと
もに当該人物の現実空間における位置を判定する画像処
理方法において、 予め前記カメラの撮影範囲に人物がいない状態で撮影し
た背景画像と前記撮影画像とを比較することにより画像
内に人物の有無を判定するステップと、前記撮影画像に
おいて前記人物の頭部の座標を検出するステップと、こ
こで検出した頭部の座標からその人物が現実空間におい
てどの位置にいるかを判定するステップと、を含むこと
を特徴とする画像処理方法。
9. An image processing method for detecting the presence / absence of a person and determining the position of the person in the real space from captured images obtained at fixed intervals from a surveillance camera that is fixedly installed. A step of determining the presence or absence of a person in the image by comparing a background image photographed in the absence of a person with the photographed image; a step of detecting the coordinates of the head of the person in the photographed image; An image processing method, comprising the step of determining, in the physical space, the position of the person from the coordinates of the head detected in.
【請求項10】 請求項9に記載の画像処理方法におい
て、前記画像内に人物の有無を判定するステップは、 前記撮影画像から黒い部分を抽出するステップと、同じ
く黒い部分を抽出した背景画像における黒い部分に対応
する撮影画像の部分を除外するステップと、その後に撮
影画像に有意の黒い部分が残ったら人物有りと判断する
ステップと、を含むことを特徴とする画像処理方法。
10. The image processing method according to claim 9, wherein the step of determining the presence / absence of a person in the image includes a step of extracting a black portion from the captured image and a step of extracting a black portion from the background image. An image processing method comprising: a step of excluding a portion of a captured image corresponding to a black portion; and a step of determining that there is a person if a significant black portion remains in the captured image thereafter.
【請求項11】 請求項10に記載の画像処理方法にお
いて、前記人物の頭部の座標を検出するステップは、前
記撮影画像に残った黒い部分のY軸方向における最も上
の座標を検出することにより行うことを特徴とする画像
処理方法。
11. The image processing method according to claim 10, wherein the step of detecting the coordinates of the head of the person includes detecting the uppermost coordinates in the Y-axis direction of the black portion remaining in the captured image. An image processing method comprising:
【請求項12】 請求項9乃至11に記載の画像処理方
法において、前記人物の位置を判定するステップは、予
め前記監視カメラの撮影範囲の床部分の座標を設定する
ステップと、前記撮影画像における座標と前記撮影範囲
の床部分の座標を関連づけるステップと、所定身長の人
物の頭部が前記検出した頭部の座標にある場合のその人
物の足下の前記画像における座標を判定するステップ
と、ここで判定した足下の座標から前記撮影範囲の床部
分の座標を導き出すステップと、を含むことを特徴とす
る画像処理方法。
12. The image processing method according to claim 9, wherein the step of determining the position of the person includes the step of setting the coordinates of the floor portion of the shooting range of the surveillance camera in advance, A step of associating the coordinates with the coordinates of the floor portion of the photographing range; a step of determining the coordinates of the person's feet in the image when the head of the person with a predetermined height is at the coordinates of the detected head; Deriving the coordinates of the floor portion of the photographing range from the coordinates of the foot determined in step 1.
JP2001383699A 2001-12-17 2001-12-17 Surveillance camera system and information providing system using the same Expired - Fee Related JP3637360B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001383699A JP3637360B2 (en) 2001-12-17 2001-12-17 Surveillance camera system and information providing system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001383699A JP3637360B2 (en) 2001-12-17 2001-12-17 Surveillance camera system and information providing system using the same

Publications (2)

Publication Number Publication Date
JP2003189295A true JP2003189295A (en) 2003-07-04
JP3637360B2 JP3637360B2 (en) 2005-04-13

Family

ID=27593668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001383699A Expired - Fee Related JP3637360B2 (en) 2001-12-17 2001-12-17 Surveillance camera system and information providing system using the same

Country Status (1)

Country Link
JP (1) JP3637360B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178790A (en) * 2004-12-22 2006-07-06 Ricoh Co Ltd State detection apparatus, state detection method, program, and recording medium
JP2007179302A (en) * 2005-12-28 2007-07-12 Canon Marketing Japan Inc Store analyzing system, server for store analyzing system, and its control program
JP2007280043A (en) * 2006-04-06 2007-10-25 Mitsubishi Electric Corp Video monitoring and search system
JP2008005986A (en) * 2006-06-28 2008-01-17 Ac Holdings Japan Kk Player management system
JP2010004106A (en) * 2008-06-18 2010-01-07 Laurel Bank Mach Co Ltd Action management system
JP2010092369A (en) * 2008-10-09 2010-04-22 Nec Corp Job analysis system, job analysis method, and job analysis program
JP2011014059A (en) * 2009-07-06 2011-01-20 Nippon Telegr & Teleph Corp <Ntt> Behavior analysis system and behavior analysis method
JP2012079351A (en) * 2012-01-24 2012-04-19 Canon Marketing Japan Inc Server, store analysis system, and program
US8284292B2 (en) 2008-03-31 2012-10-09 Fujifilm Corporation Probability distribution constructing method, probability distribution constructing apparatus, storage medium of probability distribution constructing program, subject detecting method, subject detecting apparatus, and storage medium of subject detecting program
JP2017069748A (en) * 2015-09-30 2017-04-06 グローリー株式会社 Monitor camera system and monitoring method
JP2020088571A (en) * 2018-11-22 2020-06-04 株式会社リコー Management system, information processing system, information processing method and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5370009B2 (en) * 2009-08-31 2013-12-18 株式会社メガチップス Monitoring system

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178790A (en) * 2004-12-22 2006-07-06 Ricoh Co Ltd State detection apparatus, state detection method, program, and recording medium
JP4637564B2 (en) * 2004-12-22 2011-02-23 株式会社リコー Status detection device, status detection method, program, and recording medium
JP2007179302A (en) * 2005-12-28 2007-07-12 Canon Marketing Japan Inc Store analyzing system, server for store analyzing system, and its control program
JP4541316B2 (en) * 2006-04-06 2010-09-08 三菱電機株式会社 Video surveillance search system
JP2007280043A (en) * 2006-04-06 2007-10-25 Mitsubishi Electric Corp Video monitoring and search system
JP2008005986A (en) * 2006-06-28 2008-01-17 Ac Holdings Japan Kk Player management system
US8284292B2 (en) 2008-03-31 2012-10-09 Fujifilm Corporation Probability distribution constructing method, probability distribution constructing apparatus, storage medium of probability distribution constructing program, subject detecting method, subject detecting apparatus, and storage medium of subject detecting program
JP2010004106A (en) * 2008-06-18 2010-01-07 Laurel Bank Mach Co Ltd Action management system
JP2010092369A (en) * 2008-10-09 2010-04-22 Nec Corp Job analysis system, job analysis method, and job analysis program
JP2011014059A (en) * 2009-07-06 2011-01-20 Nippon Telegr & Teleph Corp <Ntt> Behavior analysis system and behavior analysis method
JP2012079351A (en) * 2012-01-24 2012-04-19 Canon Marketing Japan Inc Server, store analysis system, and program
JP2017069748A (en) * 2015-09-30 2017-04-06 グローリー株式会社 Monitor camera system and monitoring method
JP2020088571A (en) * 2018-11-22 2020-06-04 株式会社リコー Management system, information processing system, information processing method and program

Also Published As

Publication number Publication date
JP3637360B2 (en) 2005-04-13

Similar Documents

Publication Publication Date Title
CN108419027B (en) Intelligent photographing method and server
CN106998444B (en) Big data face monitoring system
WO2019144690A1 (en) Image monitoring-based commodity sensing system and commodity sensing method
JP4125634B2 (en) Customer information collection management method and system
JP6145855B1 (en) Facility use support method, facility use support device, and user terminal device
JP3800257B2 (en) Attention information measurement method and apparatus, and various systems using the same
JP3637360B2 (en) Surveillance camera system and information providing system using the same
JP6444655B2 (en) Display method, stay information display system, display control device, and display control method
US20160034751A1 (en) Object tracking and best shot detection system
TWI778030B (en) Store apparatus, store management method and program
US20200334454A1 (en) People stream analysis method, people stream analysis apparatus, and people stream analysis system
KR20000029317A (en) Method of and device for acquiring information on the traffic line of persons
JP2003087771A (en) Monitoring system and monitoring method
JP2006350751A (en) Intra-store sales analysis apparatus and method thereof
JP2003256843A (en) Measurement system
JP2001175868A (en) Method and device for human detection
US20230401895A1 (en) Information processing device
JP7230173B2 (en) Abandoned object detection device and abandoned object detection method
JP4353820B2 (en) Suspicious person monitoring system, Suspicious person monitoring method, Suspicious person monitoring program
CN110689389A (en) Computer vision-based shopping list automatic maintenance method and device, storage medium and terminal
JP2004126829A (en) Visitor management system and its program
JP7149063B2 (en) Monitoring system
CN205942742U (en) Airport identity authentication system based on gait discernment
US20230168119A1 (en) Footfall detection method and apparatus
JP2003267523A (en) Warehouse management system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040713

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041207

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110121

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110121

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees