JP7348529B2 - Image processing system, image processing system control method, and program - Google Patents

Image processing system, image processing system control method, and program Download PDF

Info

Publication number
JP7348529B2
JP7348529B2 JP2020081137A JP2020081137A JP7348529B2 JP 7348529 B2 JP7348529 B2 JP 7348529B2 JP 2020081137 A JP2020081137 A JP 2020081137A JP 2020081137 A JP2020081137 A JP 2020081137A JP 7348529 B2 JP7348529 B2 JP 7348529B2
Authority
JP
Japan
Prior art keywords
image
person
people
counting
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020081137A
Other languages
Japanese (ja)
Other versions
JP2020156091A (en
JP2020156091A5 (en
Inventor
高志 羽部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Publication of JP2020156091A publication Critical patent/JP2020156091A/en
Publication of JP2020156091A5 publication Critical patent/JP2020156091A5/ja
Application granted granted Critical
Publication of JP7348529B2 publication Critical patent/JP7348529B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理システム、画像処理システムの制御方法、およびプログラムに関する。 The present invention relates to an image processing system, a method for controlling an image processing system, and a program.

近年ネットワークカメラの映像を用いて人数をカウントするシステムが提案されている。例えば特許文献1には、カメラから出力された撮影画像を取得し、当該撮影画像に対して顔認識を行うことで、当該撮影画像中の顔の数に応じた人数を算出する仕組みが提案されている。 In recent years, systems have been proposed that count the number of people using images from network cameras. For example, Patent Document 1 proposes a mechanism that calculates the number of people according to the number of faces in the captured image by acquiring a captured image output from a camera and performing face recognition on the captured image. ing.

また特許文献2には、特定箇所を撮影し、撮影された映像を画像処理することによって当該特定箇所を通過した人数をカウントする仕組みが提案されている。 Further, Patent Document 2 proposes a mechanism for counting the number of people passing through a specific location by photographing a specific location and performing image processing on the captured video.

特開2011-221906号公報Japanese Patent Application Publication No. 2011-221906 特開2008-217205号公報Japanese Patent Application Publication No. 2008-217205

特許文献1および特許文献2の仕組みを利用してネットワークカメラの画像(映像)を解析することで、画像中に写っている人の人数や、所定の位置を通過した人の人数を算出することができる。 By analyzing network camera images (videos) using the mechanisms in Patent Documents 1 and 2, the number of people in the image and the number of people who have passed a predetermined position can be calculated. I can do it.

しかしながら、これら特許文献にて提案された技術を利用した場合、例えばイベント会場などで参加した人の人数を数えたい場合に、係員などイベントの参加者ではない人まで数えてしまうことになってしまう。 However, when using the technology proposed in these patent documents, for example, when you want to count the number of people who participated at an event venue, you end up counting people who are not participants at the event, such as staff members. .

また、長時間滞在した人や短時間しか滞在していない人も同様に数えてしまうためユーザごとの滞在時間を算出することができないという問題もあった。 Another problem was that it was impossible to calculate the length of stay for each user because people who stayed for a long time and people who stayed only for a short time were counted in the same way.

また、同じユーザが何度もカウントされてしまうことによって、実人数を数えたい場合などには正しい人数を算出することができないとう問題もあった。 There was also the problem that the same users were counted multiple times, making it impossible to calculate the correct number of people when it was desired to count the actual number of people.

そこで本発明では、これら問題点に鑑み、対象画像に写っている人物で、前回画像に写っている人物と写っていない人物とを容易に確認することが可能な仕組みを提供することを目的とする。 In view of these problems, it is an object of the present invention to provide a mechanism by which it is possible to easily confirm which people are in the previous image and who are not in the target image. do.

本発明に係る画像処理システムは、所定の領域を撮影した第1の画像と、当該領域を前記第1の画像とは異なる時刻に撮影した第2の画像とを取得する取得手段と、前記第1の画像と前記第2の画像のそれぞれから特定される人物に基づいて、記第2の画像に写っている人物であって、前記第1の画像にも写っている人物、および、前記第1の画像には写っていない人物を示す情報を文字情報として閲覧画面に出力するよう制御する出力制御手段とを備えることを特徴とする。 The image processing system according to the present invention includes an acquisition unit that acquires a first image of a predetermined area, a second image of the area taken at a different time from the first image, and Based on the person identified from each of the first image and the second image, the person who is shown in the second image and who is also shown in the first image, and The present invention is characterized by comprising an output control means for controlling to output information indicating a person who is not shown in the first image as character information to the viewing screen.

本発明に係る画像処理システムの制御方法は、取得手段が、所定の領域を撮影した第1の画像と、当該領域を前記第1の画像とは異なる時刻に撮影した第2の画像とを取得する取得ステップと、出力制御手段が、前記第1の画像と前記第2の画像のそれぞれから特定される人物に基づいて、前記第2の画像に写っている人物であって、前記第1の画像にも写っている人物、および、前記第1の画像には写っていない人物を示す情報を文字情報として閲覧画面に出力するよう制御する出力制御ステップとを備えることを特徴とする。 In the control method for an image processing system according to the present invention, the acquisition means acquires a first image taken of a predetermined area and a second image taken of the area at a different time from the first image. and the output control means, based on the person identified from each of the first image and the second image, the person appearing in the second image, The present invention is characterized by comprising an output control step for controlling to output information indicating a person who is also shown in the image and a person who is not shown in the first image as text information to the viewing screen.

本発明に係るプログラムは、画像処理システムで実行可能なプログラムであって、前記画像処理システムを、所定の領域を撮影した第1の画像と、当該領域を前記第1の画像とは異なる時刻に撮影した第2の画像とを取得する取得手段と、前記第1の画像と前記第2の画像のそれぞれから特定される人物に基づいて、前記第2の画像に写っている人物であって、前記第1の画像にも写っている人物、および、前記第1の画像には写っていない人物を示す情報を文字情報として閲覧画面に出力するよう制御する出力制御手段として機能させるためのプログラムである。 A program according to the present invention is a program executable by an image processing system, and the program is a program that executes the image processing system by capturing a first image of a predetermined area, and capturing the area at a time different from the first image. an acquisition means for acquiring a photographed second image, and a person appearing in the second image based on the person identified from each of the first image and the second image, A program for functioning as an output control means for controlling information indicating a person who is also shown in the first image and a person who is not shown in the first image to be output as text information to a viewing screen. be.

本発明によると、対象画像に写っている人物で、前回画像に写っている人物と写っていない人物とを容易に確認可能な仕組みを提供することができる。 According to the present invention, it is possible to provide a mechanism in which it is possible to easily confirm which persons are included in the target image and which are not included in the previous image.

本発明の実施形態における画像処理システムのシステム構成の一例を示すシステム構成図である。1 is a system configuration diagram showing an example of the system configuration of an image processing system according to an embodiment of the present invention. 本発明の実施形態における画像処理システムのサーバ100、クライアントPC101に適用可能な情報処理装置のハードウェア構成の一例を示す図である。1 is a diagram illustrating an example of a hardware configuration of an information processing apparatus applicable to a server 100 and a client PC 101 of an image processing system according to an embodiment of the present invention. 本発明の実施形態におけるネットワークカメラ102のハードウェアの構成の一例を示す図である。It is a diagram showing an example of the hardware configuration of a network camera 102 in an embodiment of the present invention. 本発明の実施形態における画像処理システムの機能構成の一例を示す機能構成図である。FIG. 1 is a functional configuration diagram showing an example of the functional configuration of an image processing system according to an embodiment of the present invention. 本発明の実施形態における人数カウントに利用される画像の一例を示す図である。FIG. 3 is a diagram showing an example of an image used for counting the number of people in an embodiment of the present invention. 本発明の実施形態における通過人数カウントに利用される画像の一例を示す図である。FIG. 3 is a diagram showing an example of an image used for counting the number of people passing by in an embodiment of the present invention. 本発明の実施形態における画像処理システムの画像保存処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of image storage processing of the image processing system according to the embodiment of the present invention. 本発明の実施形態における画像処理システムの通過人数カウント処理の一例を示すフローチャートである。2 is a flowchart illustrating an example of a process for counting the number of people passing by the image processing system according to an embodiment of the present invention. 本発明の実施形態における画像処理システムの人数カウント処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of a people counting process of the image processing system according to an embodiment of the present invention. 本発明の実施形態における画像処理システムの顔認識処理の一例を示すフローチャートである。It is a flow chart showing an example of face recognition processing of the image processing system in an embodiment of the present invention. 本発明の実施形態における画像処理システムの閲覧処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of viewing processing of the image processing system according to the embodiment of the present invention. 本発明の実施形態における画像処理システムの人物DBの一例を示す図である。It is a diagram showing an example of a person DB of the image processing system in the embodiment of the present invention. 本発明の実施形態における人数カウントの閲覧画面の一例を示す図である。It is a figure showing an example of the viewing screen of the number of people count in an embodiment of the present invention. 本発明の実施形態における通過人数カウントの閲覧画面の一例を示す図である。FIG. 3 is a diagram showing an example of a viewing screen for counting the number of people passing by according to an embodiment of the present invention. 別の実施形態に係る画像処理システムの通過人数カウント処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of a process for counting the number of people passing by an image processing system according to another embodiment. 人物位置情報DBの一例を示す図である。It is a figure showing an example of person position information DB. 境界越え情報DBの一例を示す図である。It is a diagram showing an example of a boundary crossing information DB. ラインカウンタDBの一例を示す図である。It is a diagram showing an example of a line counter DB. 別の実施形態に係る画像処理システムにおける画像に写った人数のカウント処理の一例を示すフローチャートである。12 is a flowchart illustrating an example of a process for counting the number of people in an image in an image processing system according to another embodiment. 人数カウントの閲覧画面の一例を示す図である。FIG. 3 is a diagram showing an example of a viewing screen for counting the number of people.

以下、図面を参照して、本発明の実施形態を詳細に説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施形態の1つである。 Embodiments of the present invention will be described in detail below with reference to the drawings. Note that the embodiment described below shows an example of a case where the present invention is specifically implemented, and is one of the specific embodiments of the configuration described in the claims.

図1は、本発明の実施形態における画像処理システムのシステム構成の一例を示すシステム構成図である。 FIG. 1 is a system configuration diagram showing an example of the system configuration of an image processing system according to an embodiment of the present invention.

本発明の実施形態における画像処理システム(情報処理システム)は、サーバ100、クライアントPC101、撮像装置であるネットワークカメラ102が、無線(または有線)LAN120を介して通信接続可能に接続されている。尚、図1のシステム構成は一例であり、用途や目的に応じて様々な構成例がある。 In an image processing system (information processing system) according to an embodiment of the present invention, a server 100, a client PC 101, and a network camera 102 which is an imaging device are communicably connected via a wireless (or wired) LAN 120. Note that the system configuration shown in FIG. 1 is one example, and there are various configuration examples depending on the usage and purpose.

サーバ100は、ネットワークカメラ102において撮影された画像データを記憶管理する。また、サーバ100は、当該サーバ100で記憶管理する画像データを解析し、画像データに含まれるユーザの人数のカウントや、所定の領域を通過した人数のカウントを行う機能を有する。 The server 100 stores and manages image data captured by the network camera 102. Further, the server 100 has a function of analyzing image data stored and managed by the server 100, and counting the number of users included in the image data and counting the number of people who have passed through a predetermined area.

本発明の実施形態における画像管理システムは、ネットワークカメラ102を複数[ネットワークカメラ102(A)や(B)]含み、また、TCP/IPプロトコルで通信を行っており、各ネットワークカメラ102には、固定のIPアドレスが独自に割り当てられると共に、ネットワーク群毎に割り当てられた外部ポート番号が割り当てられている。 The image management system according to the embodiment of the present invention includes a plurality of network cameras 102 [network cameras 102 (A) and (B)], and communicates using the TCP/IP protocol. A fixed IP address is uniquely assigned, and an external port number is assigned to each network group.

従って、サーバ100では、受信した画像データが何れのネットワークカメラ102から送信されたものなのかを識別することが可能であり、受信した画像データと何れのネットワークカメラ102から送信されたものなのかを対応づけて記憶管理することが可能である。 Therefore, the server 100 can identify from which network camera 102 the received image data was transmitted, and can distinguish between the received image data and which network camera 102 it was transmitted from. It is possible to store and manage the information in association with each other.

ネットワークカメラ102は、例えば、企業の建物のフロアの打ち合わせスペースや催し物会場(以下、「所定の領域」ともいう)ごとに設けられ、例えばネットワークカメラ102(A)は所定の領域全体の静止画または動画を撮影し、ネットワークカメラ102(B)はそこで撮影された人物を特定するための静止画または動画の撮影を行ったりする。 The network camera 102 is installed, for example, in a meeting space or an event venue on the floor of a corporate building (hereinafter also referred to as a "predetermined area"). For example, the network camera 102 (A) captures still images or A video is taken, and the network camera 102(B) takes a still image or a video to identify the person photographed.

所定の領域の例としては、領域の全体を示す領域106、領域A103、領域B104などである。領域A103と領域B104の間に設けられた位置105は、当該位置105を通過したユーザ(USER)の人数をカウントする場合の基準位置である。すなわち、本位置は、領域A103と領域B104とを区分けする境界である。本位置は、線状に設定されてもよいし、円状に設定されてもよいし、矩形で設定されてもよい。 Examples of the predetermined area include an area 106 indicating the entire area, area A103, and area B104. A position 105 provided between the area A103 and the area B104 is a reference position when counting the number of users (USERs) who have passed through the position 105. That is, this position is a boundary that separates area A103 and area B104. This position may be set linearly, circularly, or rectangularly.

クライアントPC101は、サーバ100で管理する画像データ(ネットワークカメラ102の映像)をユーザが閲覧するために用いられる。ユーザは、クライアントPC101を介して、モニタリングシステムにログインすることにより、画像データの閲覧が可能となる。 The client PC 101 is used by a user to view image data (video from the network camera 102) managed by the server 100. A user can view image data by logging into the monitoring system via the client PC 101.

次に、図2を用いて、図1に示したサーバ100、クライアントPC101に適用可能な情報処理装置のハードウェア構成の一例について説明する。 Next, an example of the hardware configuration of an information processing apparatus applicable to the server 100 and client PC 101 shown in FIG. 1 will be described using FIG. 2.

図2は、本発明の実施形態における画像処理システムのサーバ100、クライアントPC101に適用可能な情報処理装置のハードウェア構成の一例を示す図である。 FIG. 2 is a diagram showing an example of the hardware configuration of an information processing apparatus applicable to the server 100 and client PC 101 of the image processing system according to the embodiment of the present invention.

図2において、201はCPUで、システムバス204に接続される各デバイスやコントローラを統括的に制御する。また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、PCの実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。 In FIG. 2, 201 is a CPU that centrally controls each device and controller connected to the system bus 204. In addition, the ROM 202 or external memory 211 contains BIOS (Basic Input/Output System), which is a control program for the CPU 201, an operating system program (hereinafter referred to as OS), and various other programs described below that are necessary to realize the functions executed by the PC. Programs etc. are stored.

203はRAMで、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは外部メモリ211からRAM203にロードして、ロードしたプログラムを実行することで各種動作を実現するものである。 203 is a RAM, which functions as the main memory, work area, etc. of the CPU 201; The CPU 201 loads programs and the like necessary for execution of processing from the ROM 202 or the external memory 211 into the RAM 203, and executes the loaded programs to realize various operations.

また、205は入力コントローラで、キーボード(KB)209等のポインティングデバイス等からの入力を制御する。206はビデオコントローラで、CRTディスプレイ(CRT)210等の表示器への表示を制御する。なお、図2では、CRT210と記載しているが、表示器はCRTだけでなく、液晶ディスプレイ等の他の表示器であってもよい。 Further, an input controller 205 controls input from a pointing device such as a keyboard (KB) 209 or the like. A video controller 206 controls display on a display such as a CRT display (CRT) 210. Although the CRT 210 is shown in FIG. 2, the display device is not limited to a CRT, but may be another display device such as a liquid crystal display.

207はメモリコントローラで、ブートプログラム、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶する外部記憶装置(ハードディスク(HD))や、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるCFメモリ等の外部メモリ211へのアクセスを制御する。 207 is a memory controller that stores boot programs, various applications, font data, user files, editing files, various data, etc. in an external storage device (hard disk (HD)), flexible disk (FD), or PCMCIA card slot. Controls access to external memory 211 such as CF memory connected via an adapter.

208は通信I/Fコントローラで、ネットワークを介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。 A communication I/F controller 208 connects and communicates with external devices via a network, and executes communication control processing on the network. For example, communication using TCP/IP is possible.

なお、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、CRT210上での表示を可能としている。また、CPU201は、CRT210上の不図示のマウスカーソル等でのユーザ指示を可能とする。 Note that the CPU 201 enables display on the CRT 210 by, for example, executing an outline font development (rasterization) process in a display information area in the RAM 203. Further, the CPU 201 allows the user to give instructions using a mouse cursor (not shown) on the CRT 210 .

本発明を実現するための後述する各種プログラムは、外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、上記プログラムの実行時に用いられる設定ファイル等も外部メモリ211に格納されており、これらについての詳細な説明も後述する。以上で、図2の説明を終了する。 Various programs to be described later for realizing the present invention are recorded in the external memory 211, and are executed by the CPU 201 by being loaded into the RAM 203 as necessary. Further, configuration files and the like used when executing the above program are also stored in the external memory 211, and detailed explanations thereof will be given later. This concludes the explanation of FIG. 2.

次に、図3を用いて、図1に示したネットワークカメラ102のハードウェア構成の一例について説明する。 Next, an example of the hardware configuration of the network camera 102 shown in FIG. 1 will be described using FIG. 3.

図3は、本発明の実施形態におけるネットワークカメラ102のハードウェアの構成の一例を示す図である。 FIG. 3 is a diagram showing an example of the hardware configuration of the network camera 102 in the embodiment of the present invention.

CPU301は、システムバス304に接続される各デバイスやコントローラを統括的に制御する。また、ROM302あるいは外部メモリ305には、CPU301の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、画像処理サーバ108の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM303は、CPU301の主メモリ、ワークエリア等として機能する。 The CPU 301 centrally controls each device and controller connected to the system bus 304. In addition, the ROM 302 or external memory 305 contains BIOS (Basic Input/Output System), which is a control program for the CPU 301, an operating system program (hereinafter referred to as OS), and other programs necessary to implement the functions executed by the image processing server 108. Various programs and the like, which will be described later, are stored. The RAM 303 functions as the main memory, work area, etc. of the CPU 301.

CPU301は、処理の実行に際して必要なプログラム等をRAM303にロードして、プログラムを実行することで各種動作を実現するものである。 The CPU 301 loads programs and the like necessary for execution of processing into the RAM 303 and executes the programs to realize various operations.

メモリコントローラ(MC)306は、ブートプログラム、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ、画像データ等を記憶するハードディスク(HD)やPCMCIAカードスロットにアダプタを介して接続されるCFメモリやスマートメディア(登録商標)等の外部メモリ305へのアクセスを制御する。 A memory controller (MC) 306 is a CF that is connected via an adapter to a hard disk (HD) or PCMCIA card slot that stores boot programs, various applications, font data, user files, editing files, various data, image data, etc. Controls access to external memory 305 such as memory and SmartMedia (registered trademark).

カメラ部307は、画像処理部308と接続されており、監視対象に対して向けられたレンズを透過して得られた光をCCDやCMOS等の受光セルによって光電変換を行った後、RGB信号や補色信号を画像処理部308に対して出力する。 The camera unit 307 is connected to an image processing unit 308, and after photoelectrically converting the light obtained by passing through a lens directed toward the monitoring target using a light receiving cell such as a CCD or CMOS, the camera unit 307 converts the light into an RGB signal. and complementary color signals to the image processing unit 308.

画像処理部308は、RGB信号や捕色信号に基づいて、ホワイトバランス調整、ガンマ処理、シャープネス処理を行い、更に、YC信号処理を施して輝度信号Yとクロマ信号(以下、YC信号)を生成し、YC信号を所定の圧縮形式(例えばJPEGフォーマット、あるいはMotionJPEGフォーマット等)で圧縮し、この圧縮されたデータは、画像データとして外部メモリ305へ一時保管される。 The image processing unit 308 performs white balance adjustment, gamma processing, and sharpness processing based on the RGB signal and color capture signal, and further performs YC signal processing to generate a luminance signal Y and a chroma signal (hereinafter referred to as YC signal). Then, the YC signal is compressed in a predetermined compression format (for example, JPEG format or Motion JPEG format), and this compressed data is temporarily stored in external memory 305 as image data.

通信I/Fコントローラ(通信I/FC)309は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行しており、外部メモリ305に記憶された画像データは、通信I/Fコントローラ309によって外部機器へ送信される。以上で、図3の説明を終了する。 A communication I/F controller (communication I/FC) 309 connects and communicates with external devices via a network, executes communication control processing on the network, and stores images stored in the external memory 305. The data is transmitted to the external device by the communication I/F controller 309. This concludes the explanation of FIG. 3.

図4は、本発明の実施形態における画像処理システムの機能構成の一例を示す機能構成図である。 FIG. 4 is a functional configuration diagram showing an example of the functional configuration of an image processing system according to an embodiment of the present invention.

本実施形態に係る画像処理システムは、サーバ100が、画像取得部411、人数カウント部412、人物認識部413、人物除外部414、および結果画面表示制御部415の各機能を有する。なお、サーバ100は、図4に図示した機能構成に限られず、例えば、カウント除外対象であると判定された人物を記憶する記憶部、人物が所定の位置を通過した方向を示す通過方向情報を取得する通過方向取得部、人物が所定の領域に滞在している時間を算出する滞在時間算出手段等、その他の種々の機能構成を有していてもよい。 In the image processing system according to this embodiment, the server 100 has the following functions: an image acquisition section 411, a people counting section 412, a person recognition section 413, a person exclusion section 414, and a result screen display control section 415. Note that the server 100 is not limited to the functional configuration illustrated in FIG. 4, and includes, for example, a storage unit that stores persons determined to be excluded from counting, and passing direction information indicating the direction in which the persons have passed through a predetermined position. It may also have various other functional configurations, such as a passing direction acquisition unit that acquires information, a stay time calculation unit that calculates the time that a person stays in a predetermined area, and the like.

画像取得部411は、図7で説明するようにネットワークカメラ102で撮影した画像を取得する。画像には静止画および動画が含まれる。実施例では、ネットワークカメラ102(A)は、所定の領域を撮影し、ネットワークカメラ102(B)は、識別された人物を認識し(例えば顔認証)、個人の特定を行うために利用する。 The image acquisition unit 411 acquires an image photographed by the network camera 102, as explained in FIG. Images include still images and videos. In the embodiment, the network camera 102(A) photographs a predetermined area, and the network camera 102(B) is used to recognize an identified person (for example, facial recognition) and identify the individual.

人数カウント部412は、ネットワークカメラ102(A)で撮影された画像を利用して、図9で説明するように所定の領域に写っている人物の人数カウントや、図8で説明するように所定の位置を通過した人物の人数カウントを行う。 The people counting unit 412 uses images taken by the network camera 102(A) to count the number of people in a predetermined area as explained in FIG. Count the number of people who passed through the location.

人物認識部413は、ネットワークカメラ102(B)で撮影された画像を利用して、画像に写っている人物の認証を行う。認証処理の一例については、図10にて説明する。 The person recognition unit 413 uses the image taken by the network camera 102(B) to authenticate the person shown in the image. An example of the authentication process will be described with reference to FIG.

人物除外部414は、画像取得部411により取得された画像に基づき、画像に写った人物が、人数カウント部412による人数のカウントから除外するカウント除外対象であるか否かを判定する。人物除外部414は、人数カウント部412による人数カウントから除外する人物を特定したり、認証された人物を図12に示す人物テーブルや通過人物テーブルに保存したりする処理を行う。人物除外部414は、例えば、画像に写った人物が所定の位置を通過した通過方向を示す通過方向情報に基づき、所定の位置を通過した人物がカウント除外対象であるか否かを判定する。また、人物除外部414は、画像に写った人物の所定の領域における滞在時間に基づき、画像に写った人物がカウント除外対象であるか否かを判定する。 The person exclusion unit 414 determines, based on the image acquired by the image acquisition unit 411, whether the person in the image is a count exclusion target to be excluded from the number of people counted by the number of people counting unit 412. The person exclusion unit 414 performs processes such as identifying a person to be excluded from the number of people counted by the number of people counting unit 412, and storing authenticated people in a person table or a passing person table shown in FIG. 12. The person exclusion unit 414 determines whether a person who has passed a predetermined position is to be excluded from counting, based on, for example, passing direction information indicating the direction in which the person in the image has passed the predetermined position. Furthermore, the person exclusion unit 414 determines whether or not the person in the image is to be excluded from counting based on the time the person in the image stays in a predetermined area.

結果画面表示制御部415は、ユーザの要求に従って、画像処理結果をユーザの端末に表示するよう制御する処理を行う。 The result screen display control unit 415 performs processing to control display of image processing results on the user's terminal according to the user's request.

図5は、本発明の実施形態における人数カウントに利用される画像の一例を示す図である。 FIG. 5 is a diagram showing an example of an image used for counting the number of people in the embodiment of the present invention.

画像A501は、ある場所における所定の領域が撮影された画像であり、画像B502は、画像Aと同じ地点・同じ領域を異なる時刻に撮影された画像である。これらの画像は比較対象となる画像として管理される。 Image A501 is an image taken of a predetermined area at a certain place, and image B502 is an image taken of the same point and same area as image A at a different time. These images are managed as images to be compared.

図5では、画像AにAさんからEさんまでの5名が写っていていて、例えば5分後の画像である画像Bには、同じ5名であっても、DさんとEさんがいなくなり、FさんとGさんが写っているという例である。ここで、例えばAさん、Bさん、及びCさんは、5分前の画像Bにも写っていたユーザであるので、人数カウントから除外される。すなわち、人物除外部414は、所定の領域501における滞在時間が5分以上であるAさん、Bさん、及びCさんを、カウント除外対象として判定する。そして、人数カウント部412は、人物除外部414によりカウント除外対象であると判定された人物を除外して人数カウントをおこなう。 In Figure 5, image A contains five people from Mr. A to Mr. E, and for example, in image B, which is an image taken 5 minutes later, Mr. D and Mr. E are missing even though they are the same five people. , is an example in which Mr. F and Mr. G are photographed. Here, for example, Mr. A, Mr. B, and Mr. C are users who were also shown in the image B taken five minutes ago, so they are excluded from the number of people count. That is, the person exclusion unit 414 determines Mr. A, Mr. B, and Mr. C, whose stay time in the predetermined area 501 is 5 minutes or more, to be excluded from counting. The number of people counting unit 412 then counts the number of people while excluding the person who has been determined by the person exclusion unit 414 to be excluded from counting.

また、例えば係員のためAさんは人数カウントから除外するという設定も可能である。すなわち、人物除外部414は、既定の人物であることに基づきAさんをカウント除外対象であると判定してもよい。なお、人数カウント部412は、人物除外部414によりカウント除外対象であると判定された人物に限られず、予め管理者等によって設定された人物を除外して人数カウントをおこなってもよい。 It is also possible to set, for example, that Mr. A is excluded from the number of people count because he is a staff member. That is, the person exclusion unit 414 may determine that Mr. A is to be excluded from counting based on the fact that he is a predetermined person. Note that the number of people counting section 412 is not limited to the persons determined to be excluded from counting by the person excluding section 414, and may exclude persons set in advance by the administrator or the like when counting the number of people.

本実施形態では、ここで写っている人の変化状況を図13で示す画面にて表示可能に構成されている。 This embodiment is configured to be able to display changes in the person photographed on the screen shown in FIG. 13.

図6は、本発明の実施形態における通過人数カウントに利用される画像の一例を示す図である。 FIG. 6 is a diagram showing an example of an image used for counting the number of people passing by in the embodiment of the present invention.

ある場所における所定の領域が撮影された画像であり、それぞれ画像A601→画像B602→画像C602の順に時間が経過したものである。 The images are images taken of a predetermined area at a certain place, and time has elapsed in the order of image A601→image B602→image C602.

ここでは、所定の位置604を基準に領域Aから領域Bへ移動(またはその逆の領域Bから領域Aへ移動)した人数のカウントを行い、同じ方向に複数回移動する同一人物や既定のユーザをカウントから除外可能にするものである。ここで、同じ方向とは、ある一点からある一点に向かう直線上の全く同じ方向に限られず、例えば第一領域から第二領域に向かう方向として同じ方向であることをいう。便宜的に、領域Aを基準として、領域Bに人物が移動した場合を「OUT」、領域Bから領域Aに人物が移動した場合を「IN」とカウントすることとして説明する。この場合、同じ方向とは、何れも「OUT」(又は何れも「IN」)であることをいう。 Here, the number of people who moved from area A to area B (or vice versa, from area B to area A) is counted based on a predetermined position 604, and the number of people who move in the same direction multiple times or the default user is counted. can be excluded from counting. Here, the same direction is not limited to the exact same direction on a straight line from a certain point to a certain point, but refers to, for example, the same direction as the direction from the first area to the second area. For convenience, the case where a person moves from area A to area B will be counted as "OUT", and the case where a person moves from area B to area A will be counted as "IN". In this case, the same direction means that both are "OUT" (or both are "IN").

画像Aでは、Cさんが、領域Aから領域Bに移動(所定の位置604を領域Aから領域Bに移動)している様子を示している(OUT)。 Image A shows Mr. C moving from area A to area B (moving a predetermined position 604 from area A to area B) (OUT).

画像Bでは、Cさんが領域Bから領域Aに移動し、Dさんが領域Bから領域Aに移動した様子を示している(IN)。 Image B shows Mr. C moving from area B to area A, and Mr. D moving from area B to area A (IN).

画像Cでは、Cさんが再度領域Aから領域Bに移動し、Aさんが領域Aから領域Bに移動した様子を示している(OUT)。ここで、Cさんは同じ方向への2度目の移動となるので、人数カウントから除外される。すなわち、人物除外部414は、同じ通過方向に所定の位置604を複数回通過するCさんを、カウント除外対象であると判定する。そして、人数カウント部412は、人物除外部414によりカウント除外対象であると判定された人物を除外して人数カウントをおこなう。 Image C shows Mr. C moving from area A to area B again, and Mr. A moving from area A to area B (OUT). Here, since Mr. C is moving in the same direction for the second time, he is excluded from the people count. That is, the person exclusion unit 414 determines that Mr. C, who passes through the predetermined position 604 multiple times in the same passing direction, is to be excluded from counting. The number of people counting unit 412 then counts the number of people while excluding the person who has been determined by the person exclusion unit 414 to be excluded from counting.

また、Aさんは予め除外されることが既定されているので、初めての移動であっても除外される。すなわち、人物除外部414は、既定の人物であることに基づきAさんをカウント除外対象であると判定してもよい。なお、人数カウント部412は、人物除外部414によりカウント除外対象であると判定された人物に限られず、予め管理者等によって設定された人物を除外して人数カウントをおこなってもよい。 Furthermore, since Mr. A is set to be excluded in advance, he is excluded even if it is his first time moving. That is, the person exclusion unit 414 may determine that Mr. A is to be excluded from counting based on the fact that he is a predetermined person. Note that the number of people counting section 412 is not limited to the persons determined to be excluded from counting by the person excluding section 414, and may exclude persons set in advance by the administrator or the like when counting the number of people.

図7は、本発明の実施形態における画像処理システムの画像保存処理の一例を示すフローチャートである。 FIG. 7 is a flowchart illustrating an example of image storage processing of the image processing system according to the embodiment of the present invention.

本処理は、ネットワークカメラ102によって撮影された画像をサーバ100に送信して保存する処理である。 This process is a process of transmitting an image taken by the network camera 102 to the server 100 and storing it.

ステップS701では、ネットワークカメラ102は、監視エリア(領域106)を撮影し、ステップS702で撮影した画像をサーバに送信する。 In step S701, the network camera 102 photographs the monitoring area (region 106), and transmits the photographed image to the server in step S702.

ステップS703でサーバ100は、ネットワークカメラ102から画像を受信し、ステップS704で、録画ファイルとして受信した画像をサーバの外部メモリ211などに保存し処理を終了する。 In step S703, the server 100 receives the image from the network camera 102, and in step S704, stores the received image as a recording file in the server's external memory 211 or the like, and ends the process.

ここで保存した画像を利用して本画像処理システムは、画像に写っているユーザの人数又は通過人数をカウントする。 Using the image stored here, the image processing system counts the number of users appearing in the image or the number of people passing by.

図8は、本発明の実施形態における画像処理システムの通過人数カウント処理の一例を示すフローチャートである。 FIG. 8 is a flowchart illustrating an example of a process for counting the number of people passing by the image processing system according to the embodiment of the present invention.

本処理は、所定の領域(例えば601)に設定された所定の位置(例えば604)を何人のユーザが通過したのかをカウントする処理であって、サーバに保存された画像から所定時間の画像を対象として処理を行う。 This process is a process of counting how many users have passed through a predetermined position (for example, 604) set in a predetermined area (for example, 601), and is a process that counts the number of users who have passed through a predetermined position (for example, 604) set in a predetermined area (for example, 601). Process as a target.

ステップS801では、ユーザや管理者に指定された所定時間繰り返し処理を行う。本実施例では、9:00から9:05の5分間が指定されたものとして説明する。また、実際には、5分間分を動画にするには多数の画像から構成されるが、本実施例では、便宜的に3枚の画像を利用して説明する。 In step S801, processing is repeated for a predetermined period of time designated by the user or administrator. In this embodiment, explanation will be given assuming that 5 minutes from 9:00 to 9:05 is specified. Furthermore, in reality, a five-minute video consists of a large number of images, but in this embodiment, for convenience, three images will be used for explanation.

画像601は9:00、画像602は9:03、画像603は9:05に撮影されたものとする。 Assume that the image 601 is taken at 9:00, the image 602 is taken at 9:03, and the image 603 is taken at 9:05.

ステップS802では、ライン通過検知エリア情報を読み取る。具体的には、所定の位置604を通過した人物がいたかどうかの判定を行う。 In step S802, line passage detection area information is read. Specifically, it is determined whether a person has passed through a predetermined position 604.

ステップS803で、人物が識別(認識)できた場合はステップS804に進み、識別(認識)できなかった場合ステップS811に進み、ループの判定(所定時間経過したどうか)を行う。 In step S803, if the person can be identified (recognized), the process proceeds to step S804, and if the person cannot be identified (recognized), the process proceeds to step S811, where a loop determination (whether a predetermined period of time has elapsed or not) is performed.

ステップS804では、画像解析処理等により、ステップS802で所定の位置を通過したと判定された人物が、所定の位置を通過した方向を示す通過方向情報を取得する(通過方向取得手段)。通過方向情報とは、領域Aから領域Bへ向かう第一方向と、領域Bから領域Aへ向かう第二方向との何れかを示す情報であって、ここでは、領域Aから領域Bへの移動(第一方向)を「OUT」、領域Bから領域Aへの移動(第二方向)を「IN」とする(逆でも構わない)。 In step S804, passing direction information indicating the direction in which the person determined to have passed through the predetermined position in step S802 passes through the predetermined position is acquired by image analysis processing or the like (passing direction acquisition means). The passing direction information is information indicating either a first direction from area A to area B or a second direction from area B to area A. (first direction) is defined as "OUT", and movement from area B to area A (second direction) is defined as "IN" (the reverse is also possible).

ステップS805では、ステップS803において認識した人物を特定する処理を行う。本処理については、図10にて説明するが、認識した人物を特定する処理である(人物特定手段)。この処理により、識別された人物のうち不要な人物を人数カウントから除外することができるようになる。 In step S805, processing is performed to identify the person recognized in step S803. This process, which will be explained with reference to FIG. 10, is a process for specifying a recognized person (person specifying means). This process makes it possible to exclude unnecessary people from the people count among the identified people.

ステップS806は、ステップS803において認識された人物がカウント除外対象であるか否かを判定する。ステップS806で対象の人物がカウント除外対象であると判定された場合は、ステップS808に進み、当該人物の移動をカウント除外対象として記憶し(記憶手段)人数カウントに反映されないようにし、ステップS809に進む。ステップS806で対象の人物がカウント除外対象でないと判定された場合は、ステップS807に進み、IN/OUTの移動カウントをインクリメントし、ステップS809に進む。 In step S806, it is determined whether the person recognized in step S803 is to be excluded from counting. If it is determined in step S806 that the target person is to be excluded from counting, the process proceeds to step S808, where the movement of the person is stored as a subject to be excluded from counting (storage means) so that it is not reflected in the number of people count, and the process proceeds to step S809. move on. If it is determined in step S806 that the target person is not subject to count exclusion, the process proceeds to step S807, where the IN/OUT movement count is incremented, and the process proceeds to step S809.

ステップS809では、ステップS803で認識した人物の全ての処理が終了したかの確認を行い、終了していない場合はステップS804に戻り次の人物についての処理を行い、全人物に対する処理が完了した場合は、ステップS810に進む。 In step S809, it is confirmed whether all the processes for the person recognized in step S803 have been completed. If not, the process returns to step S804 and the process is performed for the next person. If the process for all the people has been completed, If so, the process advances to step S810.

ステップS810では、本フローで処理した内容を結果テーブルに保存し、処理を終了する。なお、本処理は、本ステップでまとめて保存してもよいし、フローチャートの各ステップで都度保存するようにしてもよい。 In step S810, the contents processed in this flow are saved in a result table, and the process ends. Note that this process may be saved all at once in this step, or may be saved each time in each step of the flowchart.

次に図12を利用して本フローチャートで保存される結果テーブル(人物テーブル)について説明する。 Next, the result table (person table) saved in this flowchart will be explained using FIG. 12.

図12は、本発明の実施形態における画像処理システムの人物DBの一例を示す図である。人物DB1200は、図9で説明する人数カウント処理の結果が保存された結果テーブルである。人物DB1200には、画像Aおよび画像Bで認識されたユーザのユーザ名およびそのユーザの種別が保存されている。詳細については後述する。 FIG. 12 is a diagram showing an example of the person DB of the image processing system according to the embodiment of the present invention. The person DB 1200 is a result table in which the results of the people counting process described in FIG. 9 are stored. The person DB 1200 stores the user names and types of users recognized in images A and B. Details will be described later.

通過人物DB1210は、図8のライン通過カウント処理にて保存される結果テーブルである、通過人物DBの一例である。 The passing person DB 1210 is an example of a passing person DB, which is a result table saved in the line passing counting process shown in FIG.

通過人物DB1210には、画像1211、その画像の撮影された時刻1212、通過方向1213、ユーザ1214、およびカウンタ1215が対応付いて記憶されている。 The passing person DB 1210 stores an image 1211, a time 1212 when the image was taken, a passing direction 1213, a user 1214, and a counter 1215 in association with each other.

画像1211は、画像名であり、例えば画像のファイル名である。画像A~画像Cは、それぞれ図6の画像A601~画像C603に対応しており、それぞれ、9時0分、9時3分、9時5分に撮影されたものである。 The image 1211 is an image name, for example, the file name of the image. Images A to C correspond to images A601 to C603 in FIG. 6, respectively, and were photographed at 9:00, 9:03, and 9:05, respectively.

通過方向1213は、ステップS804で検知された方向が記憶されており、ユーザ1214は、ステップS805で特定されたユーザが記憶される。 As the passing direction 1213, the direction detected in step S804 is stored, and as the user 1214, the user specified in step S805 is stored.

カウンタ1215は、ステップS807のIN/OUTカウンタとなっており、INユーザおよびOUTユーザの人数のカウンタである。例えば、OUTは2名、INは1名カウントされたことが分かる。 The counter 1215 is an IN/OUT counter in step S807, and is a counter for the number of IN users and OUT users. For example, it can be seen that 2 people were counted as OUT and 1 person was counted as IN.

また、画像CのCさんが除外となっている。これは、「所定時間内の同じ方向への同一ユーザの移動はカウントから除外」する設定による。すなわち、人物除外部414によって、所定時間内の同じ方向へ移動する同一ユーザがカウント除外対象であると判定され、その判定結果が結果テーブルに保存されている。 Also, Mr. C in image C is excluded. This is due to the setting that "moves by the same user in the same direction within a predetermined period of time are excluded from counting." That is, the person exclusion unit 414 determines that the same user who moves in the same direction within a predetermined period of time is to be excluded from counting, and the determination result is stored in the result table.

また、画像CのAさんが除外となっている。これは、図6に示すように、「Aさんは既定で(除外)」する設定による。すなわち、人物除外部414によって、既定のユーザがカウント除外対象者であると判定され、その判定結果が結果テーブルに保存される。設定は本設定以外にも予め管理者によって設定することが可能になっている。 Also, Mr. A in image C is excluded. This is due to the setting of "Mr. A is (excluded) by default" as shown in FIG. That is, the person exclusion unit 414 determines that the predetermined user is a count exclusion target, and the determination result is stored in the result table. Settings other than these settings can be set in advance by the administrator.

図9は、本発明の実施形態における画像処理システムの人数カウント処理の一例を示すフローチャートである。 FIG. 9 is a flowchart illustrating an example of the number of people counting process of the image processing system according to the embodiment of the present invention.

本処理は、所定の領域(例えば501)に何人のユーザが写っているのかをカウントする処理であって、サーバに保存された画像を対象とする。 This process is a process of counting how many users are photographed in a predetermined area (for example, 501), and targets images stored in the server.

例えば、画像A501にも画像B502にも5名写っているが、2枚の画像を比較して、同じユーザを除外したり、所定のユーザを除外したり、新しいユーザの人数だけを表示したりする処理を行うことができる。すなわち、予め設定された除外対象者に限られず、画像に基づき、当該人物がカウント除外対象であるか否かを判定し、カウント除外対象であると判定された人物を人数カウントから除外する処理を行うことができる。 For example, there are 5 people in both image A501 and image B502, but by comparing the two images, you can exclude the same users, exclude certain users, or display only the number of new users. You can perform the following processing. In other words, it is possible to determine whether or not the person is to be excluded from counting based on the image, and to exclude the person who has been determined to be excluded from counting from the number of people count, regardless of whether the person is to be excluded from counting based on the image. It can be carried out.

また、本処理は、画像の比較を行うので、セットされた所定の枚数の人数カウントを行うようになっており、本実施例では、画像Aと画像Bとで2枚が所定の枚数となる。 In addition, since this process compares images, it counts the number of people who have set a predetermined number of images, and in this embodiment, the predetermined number of images is 2 for image A and image B. .

ステップS901で、エリア情報を読み取る。エリア情報とは例えば図1の領域106のことであり、ネットワークカメラ102でプリセットされて撮影された領域の画像に対応する。 In step S901, area information is read. The area information refers to, for example, the area 106 in FIG. 1, and corresponds to an image of the area preset and photographed by the network camera 102.

ステップS902で、領域内で人物を識別(認識)したかどうかの判定を行い、識別した場合は、ステップS903に進み、人物特定処理を行う。人物特定処理は図10にて説明するが、人物特定処理により、当該認識された人物が除外対象かどうか決定される。 In step S902, it is determined whether or not a person has been identified (recognized) within the area. If the person has been identified, the process advances to step S903 and person identification processing is performed. The person identification process will be explained with reference to FIG. 10, and the person identification process determines whether the recognized person is an exclusion target.

ステップS904では、ステップS902で認識された人物が除外対象かどうかの判定を行い、当該人物が除外対象であると判定された場合はステップS906に進み、当該人物が除外対象でないと判定された場合はステップS905に進む。 In step S904, it is determined whether the person recognized in step S902 is an exclusion target. If it is determined that the person is an exclusion target, the process advances to step S906; if it is determined that the person is not an exclusion target, the process proceeds to step S906. The process advances to step S905.

ステップS906では、除外対象であると判定された人物を人数カウントに反映されないようにし、ステップS907に進む。ステップS905では、ステップS902で認識された人物の人数をカウントし、ステップS907へ進む。 In step S906, the person determined to be excluded is not reflected in the number of people count, and the process advances to step S907. In step S905, the number of people recognized in step S902 is counted, and the process advances to step S907.

ステップS907では、全画像(ここでは2枚)についての処理が完了したかどうかの判定を行い、処理が完了していない場合は、ステップS903に戻り、処理が完了した場合は、ステップS908に進み、結果テーブルに処理の内容を保存して処理を終了する。なお、本処理は、本ステップでまとめて保存してもよいし、フローチャートの各ステップで都度保存するようにしてもよい。 In step S907, it is determined whether processing has been completed for all images (in this case, two images). If the processing has not been completed, the process returns to step S903; if the processing has been completed, the process proceeds to step S908. , save the processing contents in the result table and end the processing. Note that this process may be saved all at once in this step, or may be saved each time in each step of the flowchart.

本フローチャートで保存される結果テーブルについて、図12の人物DB1200を利用して説明する。画像Aは9時0分に撮影された画像で、画像Bは9時5分に撮影された画像である。 The result table saved in this flowchart will be explained using the person DB 1200 in FIG. 12. Image A is an image taken at 9:00, and image B is an image taken at 9:05.

人物DB1200は、それぞれの画像について、認識されたユーザの人数と、そのユーザが除外対象なのかどうかと、を管理している。 The person DB 1200 manages, for each image, the number of recognized users and whether the users are excluded.

画像Aに対応する人物DB1200には、ユーザ種別1201とユーザ名が記憶されている。当該人物DB1200には、ユーザ名1202として、図5の画像501に基づき認識されたユーザA~Eさんの5人の情報が格納されている。また、既定で除外対象とされるユーザAさんのユーザ種別1201が「既定」とされている。。 The person DB 1200 corresponding to the image A stores a user type 1201 and a user name. The person DB 1200 stores information on five users A to E, who are recognized based on the image 501 in FIG. 5, as user names 1202. Further, the user type 1201 of user A, who is excluded by default, is set to "default." .

画像Bに対応する人物DB1200には、ユーザ名1204として、ユーザA~C、F、Gさの5人の情報が格納されている。画像Aには存在しないユーザ(新規)であるユーザF、Gさんのユーザ種別1203は空白となっている。 The person DB 1200 corresponding to image B stores information on five users A to C, F, and G as user names 1204. The user types 1203 of users F and G, who are users (new) who do not exist in image A, are blank.

またユーザAさんのユーザ種別1204が「既定」とされている他、画像Aでも特定されたユーザA~Cさんのユーザ種別1204は、「特定済」として(特定済・A)として記憶されている。すなわち、人物除外部414によって、所定時間経過後も同じフロアに位置する同一ユーザがカウント除外対象であると判定され、その判定結果を結果テーブルに保存する。ここでは、特定済のユーザや既定のユーザを除外対象として扱うものとする。 In addition, the user type 1204 of user A is set to "default," and the user types 1204 of users A to C, who were also identified in image A, are stored as "identified" (identified/A). There is. That is, the person exclusion unit 414 determines that the same user located on the same floor is to be excluded from counting even after a predetermined period of time has elapsed, and stores the determination result in the result table. Here, specified users and default users are treated as excluded targets.

図10は、本発明の実施形態における画像処理システムの顔認識処理の一例を示すフローチャートである。 FIG. 10 is a flowchart illustrating an example of face recognition processing by the image processing system according to the embodiment of the present invention.

この顔認識処理は、図8のS805および図9のステップS903の人物特定処理に対応する。本実施例では、顔認識による人物特定処理について説明するが、人物が特定できれば顔認識処理に限られず何の技術を用いてよい。 This face recognition process corresponds to the person identification process in step S805 in FIG. 8 and step S903 in FIG. In this embodiment, a person identification process using face recognition will be described. However, as long as a person can be identified, it is not limited to the face recognition process, and any technique may be used.

ステップS1001では、画像で認識された人物イメージを受信し、ステップS1002では、当該人物の特徴点を切り出して個人特定を行う。この人物の特徴点を切り出して個人特定を行う処理は、既に提案されている技術を利用するものとする。 In step S1001, an image of a person recognized in an image is received, and in step S1002, feature points of the person are extracted to identify the person. The process of extracting feature points of a person and identifying the person uses a technology that has already been proposed.

ステップS1003では、特定された人物が結果テーブル(図8の場合は、通過人物DB1210、図9の場合は、人物DB1200)に登録されているかどうかを確認し、登録済の場合は、ステップS1006に進み、登録済でない場合は、ステップS1004に進む。 In step S1003, it is checked whether the identified person is registered in the result table (passing person DB 1210 in the case of FIG. 8, person DB 1200 in the case of FIG. 9). If the information has not been registered, the process advances to step S1004.

ステップS1006では、結果テーブルに登録済みの人物を、除外人物(除外対象)として返信する。登録済とは、人物DB1200の場合は、ユーザ種別1201,1203が除外対象として登録されているかどうかによって判定する。具体的には、画像Aの場合はAさんが、ユーザ種別が既定なので除外対象となり、画像Bの場合は、既定のAさん、および特定済のA~Cさんが除外人物(除外対象)として返信され、処理が終了する。 In step S1006, the person registered in the result table is returned as an excluded person (exclusion target). In the case of the person DB 1200, "registered" is determined based on whether the user types 1201 and 1203 are registered as exclusion targets. Specifically, in the case of image A, Mr. A is excluded because the user type is default, and in the case of image B, the default person A and identified persons A to C are excluded people (exclusion targets). A reply is sent and the process ends.

また、通過人物DB1210の場合は、既定のAさん、および、同じ方向に2度目の移動(複数回移動)となる画像CのCさん(OUT)が除外人物(除外対象)として返信され、処理が終了する。 In addition, in the case of the passing person DB 1210, the default Mr. A and Mr. C (OUT) of the image C who moves for the second time (moved multiple times) in the same direction are returned as excluded persons (exclusion target) and processed. ends.

ステップS1004では、ステップS1003で登録済でないと判定された人物を結果テーブルに(除外として)登録する。例えば、人物DB1200においては、画像Aに対応する人物DB1200において特定済であることに基づく登録がなされていないA~Cさんが、画像Bに対応する人物DB1200において、画像Aで特定済であることが登録される。 In step S1004, the person determined to have not been registered in step S1003 is registered (as excluded) in the result table. For example, in the person DB 1200, persons A to C, who have not been registered based on being identified in the person DB 1200 corresponding to image A, are identified by image A in the person DB 1200 corresponding to image B. is registered.

また、通過人物DB1210においては、同一ユーザが同一方向への移動である場合で登録されていないケースである画像CのCさん(OUT)および、既定ユーザである場合の画像CのAさん(OUT・既定)が除外対象として登録される。続いて、ステップS1005では、ステップS1004で登録された人物が非除外人物(非除外対象)として返信され、処理を終了する。 In addition, in the passing person DB 1210, Mr. C (OUT) of image C, which is a case where the same user is moving in the same direction and is not registered, and Mr. A (OUT) of image C, who is the default user, are shown.・Default) is registered as an exclusion target. Subsequently, in step S1005, the person registered in step S1004 is returned as a non-excluded person (non-excluded target), and the process ends.

図11は、本発明の実施形態における画像処理システムの閲覧処理の一例を示すフローチャートである。 FIG. 11 is a flowchart showing an example of the viewing process of the image processing system according to the embodiment of the present invention.

本処理は、画像処理された結果をユーザからの指示によりユーザの端末へ表示制御する処理である。 This process is a process for controlling the display of image-processed results on the user's terminal based on instructions from the user.

ステップS1101では、表示するカメラの選択を行う。例えばネットワークカメラ102(A)のシリアル番号や名称を選択し、ステップS1102で選択したカメラで撮影された画像の要求を行う。この画像は、静止画形式であっても動画形式であってもLIVE動画であっても構わない。 In step S1101, a camera to be displayed is selected. For example, the serial number and name of the network camera 102(A) are selected, and an image taken by the selected camera is requested in step S1102. This image may be in a still image format, a moving image format, or a LIVE moving image.

ステップS1103で、要求する画像が、人数カウント(図5)なのかライン通過人数カウント(図6)なのかの判定を行い、人数カウントの場合はステップS1104に進み、LINE通過の場合はステップS1105に進む。 In step S1103, it is determined whether the requested image is a count of people (FIG. 5) or a count of people passing through a line (FIG. 6). If it is a count of people, the process advances to step S1104; if it is a count of people passing through the LINE, the process advances to step S1105. move on.

ステップS1104では、人数情報として図13に示す人数カウントの閲覧画面を表示すべく処理をする。ステップS1105では、図14に示す通過人数カウントの閲覧画面を表示すべく処理をする。閲覧画面の詳細についは、図13および図14を利用して後述する。 In step S1104, processing is performed to display a viewing screen for counting the number of people shown in FIG. 13 as the number of people information. In step S1105, processing is performed to display a viewing screen for counting the number of people passing through as shown in FIG. Details of the viewing screen will be described later using FIGS. 13 and 14.

ステップS1106では、表示すべき項目を閲覧画面に画像合成する処理を行い、ステップS1107でクライアントの画面に表示すべく画面の表示制御を行い、処理を終了する。 In step S1106, processing is performed to synthesize images of items to be displayed on the viewing screen, and in step S1107, screen display control is performed to display on the client's screen, and the processing ends.

図13は、本発明の実施形態における人数カウントの閲覧画面の一例を示す図である。 FIG. 13 is a diagram showing an example of a viewing screen for counting the number of people according to the embodiment of the present invention.

人数カウント閲覧画面1301および人数カウント閲覧画面1310の二つの例について説明する。 Two examples of the people count viewing screen 1301 and the people count viewing screen 1310 will be described.

人数カウント閲覧画面1301では、現在の画像1302、認識した人数(5名)1303、既定の除外対象(1名)1304、個人特定済の除外対象(3名)1305、および当該画面にて新たに認識された人物および人数(2名)1306が表示される。 On the people count viewing screen 1301, the current image 1302, the number of people recognized (5 people) 1303, the default exclusion target (1 person) 1304, the individual identified exclusion target (3 people) 1305, and new information on the screen The recognized person and number of people (2 people) 1306 are displayed.

人数カウント閲覧画面1310は、1301の別の閲覧画面例であり、1301の表示内容を含んで表示することも可能である。 The number of people count viewing screen 1310 is another example of the viewing screen of 1301, and can also be displayed including the display contents of 1301.

除外対象者を除いたカウント人数、既定の除外対象人数1311および、取得した画像が表示される。 The counted number of people excluding excluded persons, the default number of excluded persons 1311, and the acquired image are displayed.

また、カウントした人物を太枠などの枠線で囲って表示することで視認性を高めてもよく、また、既定の除外対象者であるAさんを異なる色や線で他のユーザと識別可能に表示してもよい。 In addition, visibility may be improved by displaying the counted people with a thick frame or other frame, and Mr. A, who is the default excluded person, can be distinguished from other users with different colors and lines. may be displayed.

また、人物特定処理において個人特定できたユーザにはユーザ名(例えばAさんやBさんなど)を合成して表示し、個人特定できなかったユーザには何も表示しないなど、表示を異ならせることも有効である。 In addition, the display may be different, such as displaying a combined user name (for example, Mr. A or Mr. B) for users whose individuals could be identified in the person identification process, and displaying nothing for users whose individuals could not be identified. is also valid.

図14は、本発明の実施形態における通過人数カウントの閲覧画面の一例を示す図である。 FIG. 14 is a diagram showing an example of a viewing screen for counting the number of people passing through according to the embodiment of the present invention.

通過人数カウント閲覧画面1401および通過人数カウント閲覧画面1410の二つの例について説明する。 Two examples of the passing number count viewing screen 1401 and the passing number counting viewing screen 1410 will be described.

通過人数カウント閲覧画面1401では、所定のライン(位置)を通過した人数および方向1402、既定の除外対象(1名)1403、および2度通過することによる除外者および人数1404が表示される。 On the passing number count viewing screen 1401, the number of people who passed through a predetermined line (position) and the direction 1402, a predetermined exclusion target (one person) 1403, and the number of people and number of people who passed through the line twice 1404 are displayed.

通過人数カウント閲覧画面1410は、1401の別の閲覧画面例であり、1401の表示内容を含んで表示することも可能である。 Passage count viewing screen 1410 is another viewing screen example of 1401, and can also be displayed including the display contents of 1401.

通過人数/方向/除外数1411および、取得した画像が表示される。実施例では、IN(1名)、OUT(2名)、除外数(2名)となっているが、この除外数は、1403および1404の両方の除外対象を含んだものである。 The number of people passing through/direction/number of exclusions 1411 and the acquired image are displayed. In the embodiment, IN (1 person), OUT (2 people), and the number of exclusions (2 people), but this number of exclusions includes both 1403 and 1404 exclusion targets.

画像には、ライン通過によりカウントされた人物を太枠などの枠線で囲って表示することで視認性を高めてもよく、また、既定の除外対象者であるAさんを異なる色や線で他のユーザと識別可能に表示してもよい。また、ライン通過されなかったユーザ1412には枠線などの協調表示をせず(便宜上点線で示しているが、何も表示しなくてもよい)通過した人物と識別可能に表示することも可能である。 In the image, visibility may be improved by displaying the people counted by passing the line in a frame such as a thick frame, and Mr. A, who is the default excluded person, may be displayed in a different color or with a line. It may be displayed so that it can be distinguished from other users. In addition, it is also possible to display the user 1412 who did not pass the line without displaying a coordinated display such as a frame line (for convenience, it is shown as a dotted line, but there is no need to display anything) so that the user 1412 can be identified as the person who passed the line. It is.

また、人物特定処理において個人特定できたユーザにはユーザ名(例えばAさんやBさんなど)を合成して表示し、個人特定できなかったユーザには何も表示しないなど、表示を異ならせることも有効である。 In addition, the display may be different, such as displaying a combined user name (for example, Mr. A or Mr. B) for users whose individuals could be identified in the person identification process, and displaying nothing for users whose individuals could not be identified. is also valid.

次に、通過人数カウント処理を行う場合に適用可能な別の実施形態に係る画像処理システムについて説明する。当該別の実施形態では、人物除外部414が、境界ラインを越えた人物が、境界ライン上をうろうろする人物、すなわち所定の位置を所定時間(例えば5分程度)内で繰り返し通過する(跨ぐ)人物であるか否かに基づき、カウント除外対象であるか否かを判定する点が、上記実施形態とは異なる。以下、この判定を、「うろうろ除外判定」ともいう。 Next, an image processing system according to another embodiment that can be applied to the process of counting the number of people passing by will be described. In this other embodiment, the person exclusion unit 414 determines whether a person who has crossed the boundary line is a person who wanders on the boundary line, that is, a person who repeatedly passes (straddles) a predetermined position within a predetermined time (for example, about 5 minutes). This embodiment differs from the above embodiment in that it is determined whether the object is to be excluded from counting based on whether the object is a person or not. Hereinafter, this determination will also be referred to as "wandering exclusion determination."

以下、図15を参照して、当該別の実施形態について詳述する。図15は、別の実施形態に係る画像処理システムの通過人数カウント処理の一例を示すフローチャートである。 Hereinafter, this other embodiment will be described in detail with reference to FIG. 15. FIG. 15 is a flowchart illustrating an example of a passer count process of an image processing system according to another embodiment.

本処理は、所定の領域(例えば画像601に写った領域)に設定された所定の境界ライン(例えば位置604)を何人のユーザが通過したのかをカウントする通過人数カウント処理において、所定時間内に境界ライン上をうろうろと繰り返し通過する人物を人数カウントから除外する処理である。本処理は、画像処理システムのサーバ100が行う。 This process involves counting the number of users passing through a predetermined boundary line (for example, position 604) set in a predetermined area (for example, the area shown in image 601) within a predetermined time. This process excludes people who repeatedly pass over the boundary line from the people count. This process is performed by the server 100 of the image processing system.

本処理は、例えば、本処理を開始するための開始指示がユーザによって入力された場合に開始する。また、本処理は、例えば、後述するステップS1504で全ての人物について解析したと判定された場合、ユーザによる終了指示が入力された場合、又は、予め設定された処理時間が完了した場合等に、終了する。 This process starts, for example, when a start instruction for starting this process is input by the user. Further, this process may be performed, for example, when it is determined that all persons have been analyzed in step S1504, which will be described later, when a termination instruction is input by the user, or when a preset processing time is completed, etc. finish.

まず、ステップS1501では、境界ライン情報、および、うろうろ見なし間隔時間を取得する。境界ライン情報、および、うろうろ見なし時間間隔は、例えば予めユーザ等によって設定された設定情報から取得される。 First, in step S1501, boundary line information and a no-loitering interval time are acquired. The boundary line information and the no-loitering time interval are obtained, for example, from setting information set in advance by the user or the like.

境界ライン情報は、境界ラインの位置情報であって、例えば画像601の左上端を基準とするピクセル座標で示される。うろうろ見なし間隔時間は、同一人物が境界ラインを複数回通過するタイミングの間隔を、領域Aから領域B(又は領域Bから領域A)に移動するために境界ラインを通過しているのではなく単に境界ライン上をうろうろと徘徊しているものと見なす時間であって、例えば5分と設定される。 The boundary line information is position information of the boundary line, and is indicated by, for example, pixel coordinates with the upper left corner of the image 601 as a reference. The non-loitering interval time is the interval at which the same person passes the boundary line multiple times, rather than simply passing through the boundary line to move from area A to area B (or from area B to area A). This is the time during which a person is considered to be wandering around on the boundary line, and is set to, for example, 5 minutes.

続いて、ステップS1502では、画像取得部411が、ネットワークカメラ102により撮影された画像を取得する。画像取得部411は、例えば所定の時間内で撮影された画像を取得する。 Subsequently, in step S1502, the image acquisition unit 411 acquires an image captured by the network camera 102. The image acquisition unit 411 acquires images taken within a predetermined time, for example.

続いて、ステップS1503では、人物認識部413が、ステップS1503で取得した画像に写っている全人物とその位置を認識して、全人物とその位置のリストをメモリ上に作成する。 Subsequently, in step S1503, the person recognition unit 413 recognizes all the people and their positions in the image acquired in step S1503, and creates a list of all the people and their positions on the memory.

続いて、ステップS1504では、ステップS1503で作成したリスト上に、解析をしていない人物がいるか否かを判定する。ここで、解析とは、後述するステップS1505以降のステップの処理を行うことをいう。 Subsequently, in step S1504, it is determined whether or not there is a person who has not been analyzed on the list created in step S1503. Here, analysis means performing the processing of steps after step S1505, which will be described later.

解析をしていない人物がいないと判定された場合(ステップS1504;NO)、すなわち全ての人物について解析をした場合には、処理を終了する。なお、この場合に、処理を終了せずにステップS1503の処理に戻り、再度画像を取得してステップS1504以降の処理を繰り返してもよい。 If it is determined that there is no person who has not been analyzed (step S1504; NO), that is, if all the persons have been analyzed, the process ends. Note that in this case, the process may be returned to step S1503 without ending the process, the image may be acquired again, and the process from step S1504 onward may be repeated.

解析していない人物がいると判定された場合には(ステップS1504;YES)、ステップS1505の処理へ進む。すなわち、全ての人物について解析が完了するまで、ステップS1505以降の処理を繰り返す。 If it is determined that there is a person who has not been analyzed (step S1504; YES), the process advances to step S1505. That is, the processing from step S1505 onward is repeated until the analysis is completed for all persons.

続いて、ステップS1505では、ステップS1503で作成したリスト上の解析をしていない未処理の人物のうち、次に解析をする人物情報を取得する。 Subsequently, in step S1505, information on the next person to be analyzed is acquired from among the unprocessed persons on the list created in step S1503 who have not yet been analyzed.

続いて、ステップS1506では、人物認識部413が、ステップS1505で取得された次に解析をする人物情報が示す人物と同一の人物を認識する。 Subsequently, in step S1506, the person recognition unit 413 recognizes the same person as the person indicated by the person information to be analyzed next acquired in step S1505.

続いて、ステップS1507では、人物認識部413が、ステップS1506で同一人物と認識した人物の位置情報をキャッシュする。具体的には、図16に示されるような人物位置情報DB1600として保存する。図16は、人物位置情報DB1600の一例を示す図である。 Subsequently, in step S1507, the person recognition unit 413 caches the position information of the person recognized as the same person in step S1506. Specifically, it is saved as a person position information DB 1600 as shown in FIG. FIG. 16 is a diagram showing an example of the person position information DB 1600.

図16に示されるように、人物位置情報DB1600には、タイムスタンプ1601、人物ID1602、カメラID1603、および位置情報1604が、互いに対応付けられて格納されている。 As shown in FIG. 16, the person location information DB 1600 stores a time stamp 1601, a person ID 1602, a camera ID 1603, and location information 1604 in association with each other.

タイムスタンプ1601は、人物が認識された画像をネットワークカメラで撮影した日時を示す文字列である。図16の例では、タイムスタンプ1601の日時が時系列で上から順に並ぶように格納されている。例えば、タイムスタンプ1601として「2018.07.27 12:00:01:00」の次に、タイムスタンプ1601として「2018.07.27 12:00:00:00」が格納されている。すなわち、タイムスタンプ1601が「2018.07.27 12:00:00:00」である日時と、タイムスタンプ1601が「2018.07.27 12:00:01:00」である日時とは、時系列的に互いに前後関係にある。以下、このような前後関係にある日時のうち、タイムスタンプ1601が「2018.07.27 12:00:00:00」である前の時間を単に「前時間」ともいい、タイムスタンプ1601が「2018.07.27 12:00:01:00」である後の時間を単に「後時間」ともいう。 The time stamp 1601 is a character string indicating the date and time when the image in which the person was recognized was photographed by a network camera. In the example of FIG. 16, the dates and times of timestamps 1601 are stored in chronological order from the top. For example, "2018.07.27 12:00:01:00" is stored as the timestamp 1601, followed by "2018.07.27 12:00:00:00" as the timestamp 1601. In other words, the date and time whose timestamp 1601 is "2018.07.27 12:00:00:00" and the date and time whose timestamp 1601 is "2018.07.27 12:00:01:00" are chronologically different from each other. In context. Hereinafter, among the dates and times in such a context, the time before the time stamp 1601 is "2018.07.27 12:00:00:00" is simply referred to as "previous time", and the time before the time stamp 1601 is "2018.07. 27 12:00:01:00'' is also simply referred to as ``later time.''

なお、図16の例では、図示を省略しているが、実際には、図示したタイムスタンプ1601の日時よりも前の日時を含む所定時間のタイムスタンプ1601に対応付けられたデータが格納されている。 Although illustration is omitted in the example of FIG. 16, in reality, data associated with a timestamp 1601 of a predetermined time including a date and time earlier than the date and time of the illustrated timestamp 1601 is stored. There is.

人物ID1602は、ステップS1506で認識した人物を示す識別情報である。カメラID1603は、ステップS1506で認識した人物を撮影したネットワークカメラ102を示す識別情報である。位置情報1604は、ステップS1506で認識した人物の位置情報であって、例えば画像601の左上端を基準とするピクセル座標で示される。位置情報1604aは、X座標で示される位置情報であって、位置情報1604bは、Y座標で示される位置情報である。 The person ID 1602 is identification information indicating the person recognized in step S1506. The camera ID 1603 is identification information indicating the network camera 102 that photographed the person recognized in step S1506. The position information 1604 is the position information of the person recognized in step S1506, and is indicated by pixel coordinates with the upper left corner of the image 601 as a reference, for example. The position information 1604a is position information indicated by the X coordinate, and the position information 1604b is position information indicated by the Y coordinate.

再度図15を参照し、続くステップS1508では、ステップS1506で同一人物と認識した人物について、人物位置情報DB1600に基づき、例えば1時間等の所定時間内での移動位置および移動方向を算出する。 Referring again to FIG. 15, in the following step S1508, the moving position and moving direction of the person recognized as the same person in step S1506 within a predetermined time, such as one hour, is calculated based on the person position information DB 1600.

移動位置は、同一人物が所定時間内に移動した位置である。移動位置は、例えば同一の人物ID1602かつ所定時間内のタイムスタンプ1601に対応付けられた位置情報1604が示す各位置として算出される。 The movement position is a position to which the same person has moved within a predetermined period of time. The movement position is calculated as, for example, each position indicated by the position information 1604 associated with the same person ID 1602 and the time stamp 1601 within a predetermined time.

移動方向は、同一人物が所定時間内に移動した方向である。移動方向は、例えば、算出した各位置に基づき、前時間での位置から後時間での位置に向かう方向を示すベクトルとして算出される。 The movement direction is the direction in which the same person moved within a predetermined period of time. The movement direction is calculated, for example, as a vector indicating a direction from a position at a previous time to a position at a later time, based on each calculated position.

続いて、ステップS1509では、ステップS1501で取得された境界ライン情報と、ステップS1508で算出された移動位置および移動方向とに基づき、同一人物が境界ラインを通過したか否かを判定する。 Subsequently, in step S1509, it is determined whether the same person has passed through the boundary line based on the boundary line information acquired in step S1501 and the movement position and movement direction calculated in step S1508.

同一人物が境界ラインを通過していないと判定された場合(ステップS1509;NO)、ステップS1504に戻り、解析をしていない人物がいるか否かの判定が行われる。同一人物が境界ラインを通過したと判定された場合(ステップS1509;YES)、ステップS1510に進む。 If it is determined that the same person has not passed through the boundary line (step S1509; NO), the process returns to step S1504, and it is determined whether there is a person who has not been analyzed. If it is determined that the same person has passed through the boundary line (step S1509; YES), the process advances to step S1510.

ステップS1510では、ステップS1509において境界ラインを通過したと判定された人物について、境界ラインの通過情報をキャッシュする。具体的には、境界ラインの通過情報を、図17に示されるような境界越え情報DB1700として保存する。図17は、境界越え情報DB1700の一例を示す図である。 In step S1510, boundary line passage information about the person determined to have passed through the boundary line in step S1509 is cached. Specifically, the boundary line passage information is saved as a boundary crossing information DB 1700 as shown in FIG. FIG. 17 is a diagram showing an example of the boundary crossing information DB 1700.

図17に示されるように、境界越え情報DB1700には、タイムスタンプ1701、人物ID1702、カメラID1703、および境界越え方向1704が、互いに対応付けられて格納されている。 As shown in FIG. 17, the boundary crossing information DB 1700 stores a time stamp 1701, a person ID 1702, a camera ID 1703, and a boundary crossing direction 1704 in association with each other.

タイムスタンプ1701は、同一人物が境界ラインを通過したときの時間を示す文字列である。人物ID1702は、ステップS1509で境界ラインを通過したと判定された人物を示す識別情報である。カメラID1703は、ステップS1509で境界ラインを通過したと判定された人物を撮影したネットワークカメラ102を示す識別情報である。 The time stamp 1701 is a character string indicating the time when the same person passed the boundary line. The person ID 1702 is identification information indicating the person determined to have passed the boundary line in step S1509. The camera ID 1703 is identification information indicating the network camera 102 that photographed the person who was determined to have passed through the boundary line in step S1509.

境界越え方向1704は、ステップS1509で境界ラインを通過したと判定された人物の境界ラインを越えた方向を示す情報であって、前述した「IN」又は「OUT」で示される。境界越え方向1704は、例えば、ステップS1508で算出された移動位置および移動方向と、ステップS1501で取得された境界ライン情報とに基づき算出され(通過方向情報取得手段)、記憶される。 The boundary crossing direction 1704 is information indicating the direction in which the person who was determined to have passed the boundary line crossed the boundary line in step S1509, and is indicated by the aforementioned "IN" or "OUT". The boundary crossing direction 1704 is calculated (passing direction information acquisition means) based on, for example, the movement position and movement direction calculated in step S1508 and the boundary line information acquired in step S1501, and is stored.

続いて、ステップS1511では、ステップS1510で記憶された境界越え情報DB1700を参照し、同一人物が、所定の時間(例えば、1時間)内に境界ラインを通過した情報を複数検索する。 Subsequently, in step S1511, the boundary crossing information DB 1700 stored in step S1510 is referred to, and a plurality of pieces of information about the same person passing the boundary line within a predetermined time (for example, one hour) is searched.

続いて、ステップS1512では、ステップS1511で検索された情報に基づき、境界ラインをうろうろ通過しているか否かを判定する。例えば、ステップS1501で取得したうろうろ見なし間隔時間(例えば、5分)内において、反対方向への移動(「IN」から「OUT」、又は、「OUT」から「IN」への移動)が1回以上あった場合には、境界ラインをうろうろ通過していると判定する。 Subsequently, in step S1512, it is determined based on the information retrieved in step S1511 whether or not the vehicle is wandering through the boundary line. For example, within the wandering-free interval time (for example, 5 minutes) acquired in step S1501, there is one movement in the opposite direction (from “IN” to “OUT” or from “OUT” to “IN”). If there are any of the above, it is determined that the object is passing through the boundary line.

ステップS1512において境界ラインをうろうろ通過していると判定された場合(ステップS1512;YES)には、ステップS1513に進む。ステップS1513では、人物除外部414が、境界ラインを通過した人物をカウント除外対象であると判定し、人数カウント部412が、カウント除外対象と判定された人物の人数をカウントから除外する。ステップS1513の後は、ステップS1504に戻り、解析をしていない人物がいるか否かの判定が再度行われる。 If it is determined in step S1512 that the object is passing through the boundary line (step S1512; YES), the process advances to step S1513. In step S1513, the person exclusion unit 414 determines that the person who has passed the boundary line is to be excluded from counting, and the number of people counting unit 412 excludes from counting the number of people who have been determined to be excluded from counting. After step S1513, the process returns to step S1504, and it is determined again whether there is a person who has not been analyzed.

なお、本明細書において、カウントから除外するとは、人数のカウントをインクリメントしない場合だけでなく、一度インクリメントしたカウントをデクリメントする場合も含む。 Note that in this specification, excluding from the count includes not only the case where the count of the number of people is not incremented, but also the case where the count that has been incremented once is decremented.

ステップS1512において境界ラインをうろうろ通過していないと判定された場合(ステップS1512;NO)には、ステップS1514に進み、通常の人数カウント処理と同様の処理を行う。具体的には、まずステップS1514において、テップS1511で検索された情報に基づき、同一人物が同じ方向へ複数回移動したか否かを判定する。 If it is determined in step S1512 that the boundary line has not been wandered through (step S1512; NO), the process advances to step S1514, and the same process as normal people counting process is performed. Specifically, first in step S1514, it is determined whether the same person has moved in the same direction multiple times based on the information searched in step S1511.

ステップS1514において同じ方向へ複数回移動したと判定された場合(ステップS1514;YES)、ステップS1515へ進み、人物除外部414が、境界ラインを通過した人物をカウント除外対象であると判定し、人数カウント部412が、カウント除外対象と判定された人物の人数をカウントから除外する。ステップS1514の後は、ステップS1504に戻り、解析をしていない人物がいるか否かの判定が再度行われる。 If it is determined in step S1514 that the person has moved in the same direction multiple times (step S1514; YES), the process proceeds to step S1515, where the person exclusion unit 414 determines that the person who has passed the boundary line is to be excluded from counting, and The counting unit 412 excludes from the count the number of people who are determined to be excluded from counting. After step S1514, the process returns to step S1504, and it is determined again whether there is a person who has not been analyzed.

ステップS1514において同じ方向へ複数回移動していないと判定された場合(ステップS1514;NO)、ステップS1516へ進み、IN/OUTの通過方向毎に、境界ラインを通過した人数のカウントをインクリメントする。ステップS1516の後は、ステップS1504に戻り、解析をしていない人物がいるか否かの判定が再度行われる。 If it is determined in step S1514 that the number of people has not moved in the same direction multiple times (step S1514; NO), the process advances to step S1516, and the count of the number of people who have passed through the boundary line is incremented for each IN/OUT passing direction. After step S1516, the process returns to step S1504, and it is determined again whether there is a person who has not been analyzed.

ステップS1516においてインクリメントされた人数カウントの結果は、例えば図18に示されるようなラインカウンタDB1800として保存される。図18は、ラインカウンタDB1800の一例を示す図である。 The result of the number of people counted in step S1516 is stored as a line counter DB 1800 as shown in FIG. 18, for example. FIG. 18 is a diagram showing an example of the line counter DB1800.

図18に示されるように、ラインカウンタDB1800には、タイムスタンプ1801、カメラID1802、およびカウント数1803が、互いに対応付けられて格納されている。 As shown in FIG. 18, the line counter DB 1800 stores a time stamp 1801, a camera ID 1802, and a count number 1803 in association with each other.

タイムスタンプ1801は、人数カウントがインクリメントされた直近の日時を示す文字列である。カメラID1802は、人数カウントがインクリメントされた人物を撮影したネットワークカメラ102を示す識別情報である。カウント数1803は、カメラIDおよび通過方向毎にインクリメントされた人数であって、ある始点からの総加算人数である。カウント数1803aは、「IN」方向へ通過した人数であり、カウント数1803bは、「OUT」方向へ通過した人数である。 The timestamp 1801 is a character string indicating the most recent date and time when the number of people count was incremented. The camera ID 1802 is identification information indicating the network camera 102 that photographed the person whose number of people has been incremented. The count number 1803 is the number of people incremented for each camera ID and passing direction, and is the total number of people added from a certain starting point. The count number 1803a is the number of people who passed in the "IN" direction, and the count number 1803b is the number of people who passed in the "OUT" direction.

図18に示されるように、ステップS1506においては、カメラIDおよび通過方向毎にカウントされた人数が記憶される。 As shown in FIG. 18, in step S1506, the camera ID and the number of people counted for each passing direction are stored.

以上、本実施形態によれば、人物が境界ラインを通過した通過方向に基づき、同一人物が第一方向(例えば「IN」)に移動した後、所定のうろうろ見なし間隔時間内に、第二方向(例えば「OUT」)に移動した場合には、当該同一人物が通過カウントから除外される。よって、領域Aから領域B(又は領域Bから領域A)に移動するために境界ラインを通過しているのではなく、単に境界ライン上をうろうろと徘徊しているような人物を、通過人数カウントのノイズとして除去することができる。 As described above, according to the present embodiment, after the same person moves in the first direction (for example, "IN") based on the passing direction in which the person passed the boundary line, the person moves in the second direction within the predetermined wandering-free interval time. (for example, "OUT"), the same person is excluded from the passing count. Therefore, people who are not passing the boundary line to move from area A to area B (or from area B to area A), but who are simply wandering around on the boundary line, can be counted as people passing by. can be removed as noise.

次に、画像に写った人数のカウント処理を行う場合に適用可能な別の実施形態に係る画像処理システムについて説明する。当該別の実施形態では、人物除外部414が、所定の領域における長時間滞在者および短時間滞在者の少なくとも一方をカウント除外対象と判定する点が、上記実施形態とは異なる。 Next, an image processing system according to another embodiment that can be applied to count the number of people in an image will be described. This other embodiment differs from the above embodiment in that the person exclusion unit 414 determines at least one of long-term stayers and short-time stayers in a predetermined area to be excluded from counting.

以下、図19を参照して、当該別の実施形態について詳述する。図19は、別の実施形態に係る画像処理システムにおける画像に写った人数のカウント処理の一例を示すフローチャートである。 Hereinafter, this other embodiment will be described in detail with reference to FIG. 19. FIG. 19 is a flowchart illustrating an example of a process for counting the number of people in an image in an image processing system according to another embodiment.

本処理は、画像に含まれる人物の人数をカウントする人数カウント処理において、所定の領域(例えば領域601内の一部の領域)における長時間滞在者および短時間滞在者の少なくとも何れかを人数カウントから除外する処理である。本処理は、画像処理システムのサーバ100が行う。 This process counts at least one of long-term stayers and short-time stayers in a predetermined area (for example, a part of the area 601) in a people counting process that counts the number of people included in an image. This is a process to exclude from This process is performed by the server 100 of the image processing system.

本処理は、例えば、本処理を開始するための開始指示がユーザによって入力された場合に開始する。また、本処理は、例えば、後述するステップS1904で全ての人物について解析したと判定された場合、ユーザによる終了指示が入力された場合、又は、予め設定された処理時間が完了した場合等に、終了する。 This process starts, for example, when a start instruction for starting this process is input by the user. Further, this process may be performed, for example, when it is determined that all persons have been analyzed in step S1904, which will be described later, when a termination instruction is input by the user, or when a preset processing time is completed, etc. finish.

まず、ステップS1901では、滞在領域の位置情報、および、滞在判定時間を取得する。所定の領域の位置情報、および、滞在判定時間は、例えば予めユーザ等によって設定された設定情報から取得される。 First, in step S1901, the location information of the stay area and the stay determination time are acquired. The position information of the predetermined area and the stay determination time are acquired from, for example, setting information set in advance by the user or the like.

滞在領域、例えば領域601中の一部の所定の領域であって、矩形や円形等の所定の形状を呈するように囲まれた領域である。滞在領域の位置情報は、例えば、領域601を写す画像の左上端を基準とするピクセル座標で示される。滞在判定時間は、滞在領域に同一人物が滞在する時間が長時間であるか短時間であるかを判定するための時間である。滞在判定時間は、例えば、長時間であるか否かを判定するための長時間滞在判定時間(例えば1時間)と、短時間であるか否かを判定するための短時間滞在判定時間(例えば10分)と、を含む。 This is a predetermined area that is part of the stay area, for example, the area 601, and is an area surrounded so as to have a predetermined shape such as a rectangle or a circle. The positional information of the stay area is indicated, for example, in pixel coordinates with the upper left corner of the image showing the area 601 as a reference. The stay determination time is a time for determining whether the same person stays in the stay area for a long time or a short time. The stay determination time includes, for example, a long stay determination time (for example, 1 hour) to determine whether the stay is long, and a short stay determination time (for example, 1 hour) to determine whether the stay is short. 10 minutes).

続くステップS1902~ステップS1907の処理は、前述した図15におけるステップS1502~ステップS1507の処理と同様であるため、その説明を省略する。 The subsequent processing from step S1902 to step S1907 is the same as the processing from step S1502 to step S1507 in FIG. 15 described above, so the description thereof will be omitted.

ステップS1907に続くステップS1908では、ステップS1901で取得された滞在領域の位置情報と、ステップS1907でキャッシュされた人物の位置情報とに基づき、ステップS1906で認識された同一人物が滞在領域に入っているか否かを判定する。 In step S1908 following step S1907, based on the location information of the stay area acquired in step S1901 and the position information of the person cached in step S1907, whether the same person recognized in step S1906 is in the stay area? Determine whether or not.

ステップS1908において同一人物が滞在領域に入っていないと判定された場合(ステップS1908;NO)、ステップS1904に戻り、解析をしていない人物がいるか否かの判定が行われる。ステップS1908において同一人物が滞在領域に入っていると判定された場合(ステップS1908;YES)、ステップS1909に進む。 If it is determined in step S1908 that the same person is not in the stay area (step S1908; NO), the process returns to step S1904, and it is determined whether there is a person who has not been analyzed. If it is determined in step S1908 that the same person is in the stay area (step S1908; YES), the process advances to step S1909.

ステップS1909では、ステップS1908で滞在領域に入っていると判定された同一人物の滞在時間を算出する。具体的には、ステップS1907で記憶した人物位置情報DB1600に基づき、滞在領域に入っていると判定された同一人物に紐づく最新の時間帯を検索し、当該時間帯の中で最も古い時刻と最も新しい時刻との差分を算出することで、同一人物の滞在時間を算出する。 In step S1909, the stay time of the same person determined to be in the stay area in step S1908 is calculated. Specifically, based on the person location information DB 1600 stored in step S1907, the latest time period associated with the same person determined to be in the stay area is searched, and the oldest time in the relevant time period is searched. By calculating the difference from the latest time, the stay time of the same person is calculated.

続いて、ステップS1910では、ステップS1909で算出した滞在時間が、ステップS1901で取得した長時間滞在判定時間以上であるか否かを判定する。すなわち、認識された同一人物が滞在領域において所定の時間(例えば、1時間)以上滞在している長時間滞在者であるか否かを判定する。 Subsequently, in step S1910, it is determined whether the stay time calculated in step S1909 is equal to or longer than the long stay determination time acquired in step S1901. That is, it is determined whether or not the same recognized person is a long-stay person who has stayed in the stay area for a predetermined period of time (for example, one hour) or more.

ステップS1910において滞在時間が長時間滞在判定時間以上であると判定された場合(ステップS1910;YES)、ステップS1911に進む。ステップS1911では、人物除外部414が、長時間滞在者と判定された人物をカウント除外対象であると判定し、人数カウント部412が、カウント除外対象と判定された人物の人数をカウントから除外する。ステップS1911の後は、ステップS1904に戻り、解析をしていない人物がいるか否かの判定が再度行われる。 If it is determined in step S1910 that the stay time is equal to or longer than the long stay determination time (step S1910; YES), the process advances to step S1911. In step S1911, the person exclusion unit 414 determines that the person who is determined to be a long-term stayer is to be excluded from counting, and the number of people counting unit 412 excludes from counting the number of people who are determined to be excluded from counting. . After step S1911, the process returns to step S1904, and it is determined again whether there is a person who has not been analyzed.

ステップS1911においてカウント除外された人物は、カウント除外されるタイミングで、長時間滞在によるカウント除外対象として記憶される。また、ステップS1911においてカウント除外された人数は、カウント除外されるタイミングで、長時間滞在によるカウント除外人数としてインクリメントされる。 The person excluded from counting in step S1911 is stored as a subject to be excluded from counting due to long stay at the timing of exclusion from counting. Further, the number of people excluded from counting in step S1911 is incremented as the number of people excluded from counting due to a long stay at the timing of exclusion from counting.

ステップS1910において滞在時間が長時間滞在判定時間以上でないと判定された場合(ステップS1910;NO)、ステップS1912に進む。ステップS1912では、ステップS1909で算出した滞在時間が、ステップS1901で取得した短時間滞在判定時間以上であるか否かを判定する。すなわち、認識された同一人物が滞在領域において所定の時間(例えば、10分)未満しか滞在していない短時間滞在者であるか否かを判定する。 If it is determined in step S1910 that the stay time is not longer than the long stay determination time (step S1910; NO), the process advances to step S1912. In step S1912, it is determined whether the stay time calculated in step S1909 is equal to or longer than the short stay determination time acquired in step S1901. That is, it is determined whether the same recognized person is a short-time visitor who has stayed in the stay area for less than a predetermined time (for example, 10 minutes).

ステップS1912において滞在時間が短時間滞在判定時間未満であると判定された場合(ステップS1912;YES)、ステップS1913に進む。ステップS1913では、人物除外部414が、短時間滞在者と判定された人物をカウント除外対象であると判定し、人数カウント部412が、カウント除外対象と判定された人物の人数をカウントから除外する。ステップS1913の後は、ステップS1904に戻り、解析をしていない人物がいるか否かの判定が再度行われる。 If it is determined in step S1912 that the stay time is less than the short stay determination time (step S1912; YES), the process advances to step S1913. In step S1913, the person exclusion unit 414 determines that the person who is determined to be a short-time visitor is to be excluded from counting, and the people counting unit 412 excludes from counting the number of people who are determined to be excluded from counting. . After step S1913, the process returns to step S1904, and it is determined again whether there is a person who has not been analyzed.

ステップS1913においてカウント除外された人物は、カウント除外されるタイミングで、短時間滞在によるカウント除外対象として記憶される。また、ステップS1913においてカウント除外された人数は、カウント除外されるタイミングで、短時間滞在によるカウント除外人数としてインクリメントされる。 The person excluded from counting in step S1913 is stored as a subject to be excluded from counting due to short stay at the timing of exclusion from counting. Further, the number of people excluded from counting in step S1913 is incremented as the number of people excluded from counting due to short stay at the timing of exclusion from counting.

ステップS1912において滞在時間が短時間滞在判定時間未満でないと判定された場合(ステップS1912;NO)、ステップS1914に進み、人数カウンタをインクリメントする。すなわち滞在時間が短時間判定時間以上でかつ長時間判定時間未満の人物だけをカウントすることができる。以下、短時間判定時間以上でかつ長時間判定時間未満の時間を「適正時間」ともいい、滞在時間が適正時間である人物を「適正時間滞在者」ともいう。ステップS1914の後は、ステップS1904に戻り、解析をしていない人物がいるか否かの判定が再度行われる。 If it is determined in step S1912 that the stay time is not less than the short stay determination time (step S1912; NO), the process advances to step S1914, and the number of people counter is incremented. That is, it is possible to count only those persons whose staying time is longer than the short-term determination time and less than the long-term determination time. Hereinafter, the time that is longer than the short time determination time and less than the long time determination time will also be referred to as "appropriate time", and a person whose staying time is the appropriate time will also be referred to as "appropriate time stayer". After step S1914, the process returns to step S1904, and it is determined again whether there is a person who has not been analyzed.

本実施形態において、結果画面表示制御部415は、人数カウントの結果を閲覧する閲覧画面として例えば図20で示される画面を表示する。 In the present embodiment, the result screen display control unit 415 displays, for example, a screen shown in FIG. 20 as a viewing screen for viewing the results of the people count.

図20は、人数カウントの閲覧画面の一例を示す図である。図20に示されるように、閲覧画面においては、カウント除外対象を除外してカウントしたカウント人数2001と、カウント除外対象としてカウント除外された人数2002と、が表示される。 FIG. 20 is a diagram showing an example of a viewing screen for counting the number of people. As shown in FIG. 20, on the viewing screen, a counted number of people 2001 that has been counted excluding those to be excluded from counting, and a number of people that have been excluded from counting as targets for counting 2002 are displayed.

また、カウント除外対象としてカウント除外された人数2002のうち、長時間滞在者としてカウント除外された人数2003と、短時間滞在者としてカウント除外された人数2004と、が、それぞれ識別可能に表示される。 In addition, among the number of people 2002 who were excluded from counting as a target for counting, a number of people 2003 who were excluded from being counted as long-term stayers and a number of people 2004 who were excluded from being counted as short-term stayers are displayed in a distinguishable manner. .

また、一点鎖線で示される滞在領域2005に滞在している人物のうち、長時間滞在者、短時間滞在者、および適正滞在者が、それぞれ識別可能に表示される。 Furthermore, among the people staying in the stay area 2005 indicated by the dashed-dotted line, long-time stayers, short-time stayers, and proper stayers are each displayed in a distinguishable manner.

例えば、長時間滞在者が実線の矩形枠2006で囲って表示され、短時間滞在者が破線の矩形枠2007で囲って表示され、適正滞在者は、何も囲まれない状態で表示される。また、各人物の滞在領域2005における滞在時間が表示されてもよい。 For example, long-term stayers are displayed surrounded by a solid-line rectangular frame 2006, short-time stayers are displayed surrounded by a broken-line rectangular frame 2007, and appropriate stayers are displayed without being surrounded by anything. Further, the stay time of each person in the stay area 2005 may be displayed.

以上、本実施形態によれば、滞在領域における長時間滞在者および短時間滞在者がカウントから除外されるので、滞在領域における長時間滞在者でも短時間滞在者でもない適正時間滞在者だけをカウントすることができる。適正時間は、長時間滞在判定時間や短時間判定時間を適宜設定変更することにより、ユーザの所望の時間に設定することができる。よって、ユーザが所望する適正時間だけ滞在している人物をカウントすることができる。 As described above, according to this embodiment, long-time stayers and short-time stayers in the stay area are excluded from counting, so only those who stay for an appropriate amount of time in the stay area, who are neither long-time stayers nor short-time stayers, are counted. can do. The appropriate time can be set to a user's desired time by appropriately changing the long stay determination time and short stay determination time. Therefore, it is possible to count the number of people staying for an appropriate amount of time desired by the user.

また、本実施形態によれば、長時間滞在者、短時間滞在者、および適正滞在者とその人数とが、それぞれ識別可能に表示される。よって、滞在領域に滞在している人物が、滞在領域にどの程度滞在し続けている状態なのかを容易に把握することができる。 Further, according to the present embodiment, long-term stayers, short-time stayers, appropriate stayers, and their number are each displayed in an identifiable manner. Therefore, it is possible to easily grasp how long the person staying in the stay area continues to stay in the stay area.

なお、本実施形態では、滞在領域における長時間滞在者および短時間滞在者をカウントから除外する例について説明したが、これに限られず、滞在領域における長時間滞在者および短時間滞在者の何れか一方をカウントから除外してもよい。例えば、長時間滞在者だけをカウントから除外する場合は、短時間判定時間を0とすればよい。また、短時間滞在者だけをカウントから除外する場合は、長時間判定時間を非常に大きな値とすればよい。 In addition, in this embodiment, an example has been described in which long-time stayers and short-time stayers in the stay area are excluded from counting, but the invention is not limited to this, and either long-time stayers or short-time stayers in the stay area One may be excluded from the count. For example, if only long-stay visitors are to be excluded from the count, the short-time determination time may be set to 0. Furthermore, if only short-time visitors are to be excluded from the count, the long-time determination time may be set to a very large value.

以上、実施形態について説明したが、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。 Although the embodiments have been described above, the present invention can also be embodied as a system, device, method, program, storage medium, etc., and specifically, it can be applied to a system composed of a plurality of devices. Alternatively, the present invention may be applied to a device consisting of one device.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。 Note that the present invention includes a system or device in which a software program that implements the functions of the embodiments described above is supplied directly or remotely. The present invention also includes a case where the present invention is achieved by the computer of the system or device reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。 Therefore, in order to realize the functional processing of the present invention on a computer, the program code itself installed in the computer also realizes the present invention. That is, the present invention also includes the computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。 In that case, as long as it has the function of a program, it may be in the form of an object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD-ROM、CD-R、CD-RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD-ROM,DVD-R)などもある。 Examples of recording media for supplying programs include flexible disks, hard disks, optical disks, magneto-optical disks, MOs, CD-ROMs, CD-Rs, and CD-RWs. There are also magnetic tapes, nonvolatile memory cards, ROMs, DVDs (DVD-ROM, DVD-R), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。 Another method of supplying the program is to connect to an Internet home page using a browser on a client computer. It can also be supplied by downloading the computer program of the present invention itself or a compressed file containing an automatic installation function from the homepage to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。 It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, the present invention also includes a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer.

また、本発明のプログラムを暗号化してCD-ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。 Additionally, the program of the present invention can be encrypted, stored on a storage medium such as a CD-ROM, and distributed to users, and users who meet certain conditions can download the key information for decrypting it from a homepage via the Internet. let It is also possible to execute the encrypted program by using the downloaded key information and install it on the computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。 Further, the functions of the embodiments described above are realized by the computer executing the read program. In addition, based on instructions from the program, an OS running on the computer performs part or all of the actual processing, and the functions of the embodiments described above can also be realized by this processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。 Furthermore, the program read from the recording medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instructions of the program, the CPU included in the function expansion board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are also realized by this processing.

なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The embodiments described above are merely examples of implementation of the present invention, and the technical scope of the present invention should not be construed as limited by these embodiments. That is, the present invention can be implemented in various forms without departing from its technical idea or main features.

100 サーバ
101 クライアントPC
102 ネットワークカメラ
100 Server 101 Client PC
102 Network camera

Claims (7)

所定の領域を撮影した第1の画像と、当該領域を前記第1の画像とは異なる時刻に撮影した第2の画像とを取得する取得手段と、
前記第1の画像と前記第2の画像のそれぞれから特定される人物に基づいて、記第2の画像に写っている人物であって、前記第1の画像にも写っている人物、および、前記第1の画像には写っていない人物を示す情報を文字情報として閲覧画面に出力するよう制御する出力制御手段と
を備えることを特徴とする画像処理システム。
acquisition means for acquiring a first image taken of a predetermined area and a second image taken of the area at a different time from the first image;
Based on the person identified from each of the first image and the second image, a person who is shown in the second image and who is also shown in the first image, and An image processing system comprising: an output control unit configured to output information indicating a person who is not shown in the first image to a viewing screen as text information.
前記出力制御手段は、前記第2の画像に写っている人物であって、前記第1の画像には写っていない人物の人数を出力するよう制御することを特徴とする請求項1に記載の画像処理システム。 2. The output control means controls to output the number of people who are shown in the second image and who are not shown in the first image. Image processing system. 前記出力制御手段は、前記第2の画像に写っている人物であって、前記第1の画像には写っていない人物の名称を出力するよう制御することを特徴とする請求項1または2に記載の画像処理システム。 3. The output control means controls to output a name of a person who is shown in the second image and who is not shown in the first image. Image processing system described. 前記出力制御手段は、前記第2の画像に写っている人物であって、前記第1の画像にも写っている人物の人数を出力するよう制御することを特徴とする請求項1~3のいずれか1項に記載の画像処理システム。 4. The apparatus according to claim 1, wherein the output control means controls to output the number of people who are shown in the second image and who are also shown in the first image. The image processing system according to any one of the items. 前記出力制御手段は、前記第2の画像に写っている人物であって、前記第1の画像にも写っている人物の名称を出力するよう制御することを特徴とする請求項1~4のいずれか1項に記載の画像処理システム。 5. The apparatus according to claim 1, wherein the output control means controls to output a name of a person who is shown in the second image and who is also shown in the first image. The image processing system according to any one of the items. 画像処理システムの制御方法であって、
取得手段が、所定の領域を撮影した第1の画像と、当該領域を前記第1の画像とは異なる時刻に撮影した第2の画像とを取得する取得ステップと、
出力制御手段が、前記第1の画像と前記第2の画像のそれぞれから特定される人物に基づいて、前記第2の画像に写っている人物であって、前記第1の画像にも写っている人物、および、前記第1の画像には写っていない人物を示す情報を文字情報として閲覧画面に出力するよう制御する出力制御ステップと
を備えることを特徴とする画像処理システムの制御方法。
A method for controlling an image processing system, the method comprising:
an acquisition step in which the acquisition means acquires a first image taken of a predetermined area and a second image taken of the area at a different time from the first image;
The output control means determines, based on the person identified from each of the first image and the second image, the person who is shown in the second image and who is also shown in the first image. A method for controlling an image processing system, comprising: an output control step for controlling to output information indicating a person who is present in the first image and a person who is not included in the first image as text information on a viewing screen .
画像処理システムで実行可能なプログラムであって、
前記画像処理システムを、
所定の領域を撮影した第1の画像と、当該領域を前記第1の画像とは異なる時刻に撮影した第2の画像とを取得する取得手段と、
前記第1の画像と前記第2の画像のそれぞれから特定される人物に基づいて、前記第2の画像に写っている人物であって、前記第1の画像にも写っている人物、および、前記第1の画像には写っていない人物を示す情報を文字情報として閲覧画面に出力するよう制御する出力制御手段
として機能させるためのプログラム。
A program executable on an image processing system,
The image processing system,
acquisition means for acquiring a first image taken of a predetermined area and a second image taken of the area at a different time from the first image;
Based on the person identified from each of the first image and the second image, a person who is shown in the second image and who is also shown in the first image, and A program for functioning as an output control means for controlling information indicating a person not shown in the first image to be output as text information to a viewing screen.
JP2020081137A 2017-09-27 2020-05-01 Image processing system, image processing system control method, and program Active JP7348529B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017185538 2017-09-27
JP2017185538 2017-09-27
JP2018169468A JP6703284B2 (en) 2017-09-27 2018-09-11 Image processing system, image processing system control method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018169468A Division JP6703284B2 (en) 2017-09-27 2018-09-11 Image processing system, image processing system control method, and program

Publications (3)

Publication Number Publication Date
JP2020156091A JP2020156091A (en) 2020-09-24
JP2020156091A5 JP2020156091A5 (en) 2021-10-14
JP7348529B2 true JP7348529B2 (en) 2023-09-21

Family

ID=66178683

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018169468A Active JP6703284B2 (en) 2017-09-27 2018-09-11 Image processing system, image processing system control method, and program
JP2020081137A Active JP7348529B2 (en) 2017-09-27 2020-05-01 Image processing system, image processing system control method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018169468A Active JP6703284B2 (en) 2017-09-27 2018-09-11 Image processing system, image processing system control method, and program

Country Status (1)

Country Link
JP (2) JP6703284B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6867612B1 (en) * 2019-12-19 2021-04-28 日本電気株式会社 Counting system, counting method, program
US11657613B2 (en) * 2020-08-11 2023-05-23 Analog Devices International Unlimited Company Zone based object tracking and counting
CN112181144B (en) * 2020-09-25 2023-08-15 北京博睿维讯科技有限公司 Terminal control method and system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010049377A (en) 2008-08-20 2010-03-04 Hitachi Software Eng Co Ltd Congestion mitigation system and method
JP2010183131A (en) 2009-02-03 2010-08-19 Optex Co Ltd Camera interface device and image communication system
JP2012221437A (en) 2011-04-14 2012-11-12 Hitachi Ltd Object recognition device and object recognition method
JP2015070359A (en) 2013-09-27 2015-04-13 株式会社京三製作所 Person counting device
JP2015133093A (en) 2014-01-14 2015-07-23 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America display method, stay information display system, and display control unit
JP2016133938A (en) 2015-01-16 2016-07-25 能美防災株式会社 Monitoring system
JP6022115B1 (en) 2016-02-01 2016-11-09 アライドテレシスホールディングス株式会社 Information processing system
JP2017211731A (en) 2016-05-24 2017-11-30 リズム時計工業株式会社 Head-count counting system, head-count counting method, and head-count counting result browsing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010272958A (en) * 2009-05-19 2010-12-02 Duse Technologies Co Ltd Monitoring device, monitoring system, and monitoring program
JP5097187B2 (en) * 2009-10-14 2012-12-12 技研トラステム株式会社 Clerk customer separation and aggregation device
JP6532217B2 (en) * 2014-11-19 2019-06-19 キヤノン株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING SYSTEM

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010049377A (en) 2008-08-20 2010-03-04 Hitachi Software Eng Co Ltd Congestion mitigation system and method
JP2010183131A (en) 2009-02-03 2010-08-19 Optex Co Ltd Camera interface device and image communication system
JP2012221437A (en) 2011-04-14 2012-11-12 Hitachi Ltd Object recognition device and object recognition method
JP2015070359A (en) 2013-09-27 2015-04-13 株式会社京三製作所 Person counting device
JP2015133093A (en) 2014-01-14 2015-07-23 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America display method, stay information display system, and display control unit
JP2016133938A (en) 2015-01-16 2016-07-25 能美防災株式会社 Monitoring system
JP6022115B1 (en) 2016-02-01 2016-11-09 アライドテレシスホールディングス株式会社 Information processing system
JP2017211731A (en) 2016-05-24 2017-11-30 リズム時計工業株式会社 Head-count counting system, head-count counting method, and head-count counting result browsing method

Also Published As

Publication number Publication date
JP2020156091A (en) 2020-09-24
JP2019062531A (en) 2019-04-18
JP6703284B2 (en) 2020-06-03

Similar Documents

Publication Publication Date Title
JP7348529B2 (en) Image processing system, image processing system control method, and program
CN108062507B (en) Video processing method and device
JP6442751B2 (en) Information processing apparatus, information processing system, control method, and program
US20150009359A1 (en) Method and apparatus for collaborative digital imaging
US20080304706A1 (en) Information processing apparatus and information processing method
JP6982263B2 (en) Image processing system, image processing system control method, and program
JP2012257021A (en) Display control device and method, program, and recording medium
JP6214762B2 (en) Image search system, search screen display method
JP6617547B2 (en) Image management system, image management method, and program
JP5532180B1 (en) Image processing apparatus and program
CN111145189B (en) Image processing method, apparatus, electronic device, and computer-readable storage medium
JP6515852B2 (en) Information processing apparatus, personal identification system, control method thereof, personal identification method, program thereof
JP5999232B2 (en) File management device, file management system, control method, program
JP2021192238A (en) Information processing apparatus, method for controlling information processing apparatus, and program
JP6028605B2 (en) Information processing apparatus, data providing method and program in information processing apparatus
JP6090366B2 (en) Information processing system, control method, and program
JP6788205B2 (en) Information processing device, personal authentication system, its control method, personal authentication method, its program
JP7093037B2 (en) Information processing equipment, face recognition system, its control method and program
JP6955067B1 (en) Display control device, display control method and display control program
JP2004248089A (en) Image change detection system
JP7307643B2 (en) IMAGING DEVICE, SYSTEM, CONTROL METHOD OF IMAGING DEVICE, AND PROGRAM
JP6222313B2 (en) Information processing apparatus, data providing method and program in information processing apparatus
CN115130070A (en) AR scene-based user permission receiving, releasing and displaying method and device and AR equipment
JP2020174267A (en) Information processing device, control method of the same, and program
JP2020174266A (en) Information processing device, control method of the same, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210906

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R151 Written notification of patent or utility model registration

Ref document number: 7348529

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151