JP2016115093A - Image processing system and image processing method used for the same - Google Patents

Image processing system and image processing method used for the same Download PDF

Info

Publication number
JP2016115093A
JP2016115093A JP2014252511A JP2014252511A JP2016115093A JP 2016115093 A JP2016115093 A JP 2016115093A JP 2014252511 A JP2014252511 A JP 2014252511A JP 2014252511 A JP2014252511 A JP 2014252511A JP 2016115093 A JP2016115093 A JP 2016115093A
Authority
JP
Japan
Prior art keywords
image
region
background
area
timer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014252511A
Other languages
Japanese (ja)
Inventor
梅村 恭司
Kyoji Umemura
恭司 梅村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyohashi University of Technology NUC
Original Assignee
Toyohashi University of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyohashi University of Technology NUC filed Critical Toyohashi University of Technology NUC
Priority to JP2014252511A priority Critical patent/JP2016115093A/en
Publication of JP2016115093A publication Critical patent/JP2016115093A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system which can distinguish an object from a background in an image even when not only the object changes but also the background changes at the time of distinguishing the object from the background in the image captured by a camera or the like, and provide an image processing method used for the same.SOLUTION: An image processing system includes processing of acquiring a present image at the time of processing and a previous image immediately prior to the present image from images captured consecutively at a fixed point, processing of comparing the present image and the previous image to define a region where a difference is detected as an operation region, processing of comparing the present image and a background image (initial value at the processing start, then updated by the present image) to define a region where the difference is detected as an object region, processing of setting a value to a timer corresponding to each of the operation region and the object region, processing of propagating the timer value of the object region to a peripheral region to set a proper value to the timer value of the operation region, processing of updating the background image of the region where the timer value of the operation region is in the time-out state to the present image, and processing of synthesizing an output image by using the background image.SELECTED DRAWING: Figure 3

Description

本発明は、カメラ等の撮影映像に含まれる静止物体と動く物体を区別して表示する画像処理システムとそれに用いる画像処理方法に関する。特に、授業における説明者と板書とを区別する画像処理システムに関するものである。   The present invention relates to an image processing system for distinguishing and displaying a stationary object and a moving object included in a captured image such as a camera and an image processing method used therefor. In particular, the present invention relates to an image processing system that distinguishes between an instructor and a board.

授業のビデオなどにおいて、映像のなかの説明者の領域を検出するために、動く物体を特定する画像処理システムでは、背景を登録しておき、背景と色の差があるところを人物とすることがよく行われるが、授業などでは板書などによって背景が変化するので、背景の変化と人物の変化を区別する必要がある。   In an image processing system that identifies moving objects in order to detect the region of the presenter in the video of a class, etc., the background should be registered and a person with a difference in color from the background should be a person. However, it is necessary to distinguish between changes in the background and changes in the person because the background changes depending on the board in class.

板書を特定する技術として特許文献1があり、人物に遮られない板書の映像を取得する技術として、特許文献2および非特許文献1、2がある。特許文献1は、文字に特化している方法であり、板書の書き方の場所の順番を規定しているため、これに従わない板書の使い方では対応ができない。   There is Patent Document 1 as a technique for specifying a board book, and Patent Document 2 and Non-Patent Documents 1 and 2 are techniques for obtaining a picture of a board book that is not obstructed by a person. Since Patent Document 1 is a method specialized in characters and defines the order of places for writing on a board, it cannot be handled by using a board that does not follow this.

特許文献2は、板書と人物の色の差をよりどころとして、板書と人物を区別する方法である。したがって、板書に使われている字の色と同じ色の服を着ている人の場合に不具合が生じる。また、板書ではなくて図などを黒板に貼付けるような場合には対応できない。   Patent Document 2 is a method for distinguishing between a blackboard and a person based on the difference in color between the blackboard and the person. Therefore, a problem occurs in the case of a person wearing clothes of the same color as the letters used in the board. Also, it is not possible to paste a figure on a blackboard instead of a board.

非特許文献1は、板書と人物の模様の差をよりどころとして、板書と人物を区別する方法である。この方法では、文字がプリントされている服を着ている人の場合に不具合が生じる。また、人物の写真を黒板に貼付けて説明をするような場合には、対応できない。   Non-Patent Document 1 is a method for distinguishing between a blackboard and a person using a difference between the pattern of the blackboard and the person as a starting point. In this method, a problem occurs in the case of a person wearing clothes printed with characters. In addition, it is not possible to explain when a photograph of a person is pasted on a blackboard.

非特許文献2は、板書と人物のカメラまでの距離をよりどころに、板書と人物を区別する方法である。人物の服や、板書に書かれる、あるいは掲示される情報に制限はない方法であるが、距離を測る装置が必要であり、そのような装置を利用できない場合には対応できない。   Non-Patent Document 2 is a method for discriminating between a board and a person based on the distance between the board and the person's camera. Although there is no restriction on the information of a person's clothes and the information written on or posted on a board, a device for measuring the distance is necessary, and this method cannot be used when such a device cannot be used.

一方、人物を特定する技術として、非特許文献3では、温度カメラを利用して人物の体温を検出し、カラーカメラと温度カメラの2つのカメラから得られる画像を基にして人物を特定する方法が開示されている。この方法では、温度カメラという特定の装置が必要であり、そのような装置が利用できない状況では区別することができない。   On the other hand, as a technique for specifying a person, Non-Patent Document 3 uses a temperature camera to detect the body temperature of a person and specifies a person based on images obtained from two cameras, a color camera and a temperature camera. Is disclosed. This method requires a specific device, a temperature camera, and cannot be distinguished in situations where such a device is not available.

特開2007−166245号公報JP 2007-166245 A 特開2010−092224号公報JP 2010-092224 A

大西正輝、他2名、「講義映像における板書領域のブロック抽出とその 10 自動撮影」、電子情報通信学会技術研究報告、社団法人 電子情報通信学会、1999年11月、 Vol.99、 p.197-204.Masateru Onishi and two others, “Block Extraction of Board-written Areas in Lecture Video and Part 10 Automatic Shooting”, IEICE Technical Report, The Institute of Electronics, Information and Communication Engineers, November 1999, Vol.99, p.197 -204. 山根恵和、岡部正幸、梅村恭司、「講義中の板書を支援する人物半透明カメラの実装」、Wiss2013、 ソフトウェア科学会、pp203-204.Keikazu Yamane, Masayuki Okabe, Junji Umemura, "Implementation of a semi-transparent camera to support a board in lecture", Wiss2013, Software Science Society, pp203-204. 西貝吉晃:温度情報と色情報を統合的に利用する映像メディアの研究、東京大学修士論文、2006年2月.Yoshiaki Nishigai: Research on video media using temperature information and color information in an integrated manner, Master's thesis, University of Tokyo, February 2006.

上述したように、従来の撮影映像に含まれる静止物体(以下、静止物ということがある。)と動く物体(以下、動作物ということがある。)を区別して表示する画像処理システムおよび画像処理方法では、背景が静止している場合においては物体と背景を区別可能だが、背景の一部も変化する状況においては、その背景の一部も物体として認識し、区別できないという課題がある。   As described above, an image processing system and image processing that distinguish and display a stationary object (hereinafter sometimes referred to as a stationary object) and a moving object (hereinafter also referred to as a moving object) included in a conventional captured image In the method, the object and the background can be distinguished when the background is stationary, but in the situation where a part of the background changes, there is a problem that the part of the background is recognized as an object and cannot be distinguished.

また、背景の一部が変化する場合には、背景の変化に追従するため、変化後に一定時間変化がなければ背景とみなす処理が必要となるが、この処理を施すと、対象物の一部が動くとしても、前記対象物の一部以外のほとんどの部分が静止していれば、対象物は静止物とみなされ、背景と認識されてしまうという問題がある。   In addition, if a part of the background changes, it follows the change in the background, so if there is no change for a certain time after the change, it is necessary to process it as a background. Even if the object moves, if most parts other than the part of the object are stationary, the object is regarded as a stationary object and is recognized as a background.

本発明は、上記の課題を解決するためになされたものである。   The present invention has been made to solve the above problems.

請求項1に記載の画像処理システムは、
定点において連続的に撮影される画像を取得する画像取得手段と、
前記画像取得手段によって取得される画像について、予め定めた区画を所定領域として該所定領域ごとに分割する所定領域分割手段と、
前記画像取得手段により取得された画像から静止物を検出し、該静止物による静止画像を作成する静止画像作成手段と、
連続的に取得される画像のうち、処理時における最新の画像である現在画像および該現在画像の直前に取得した直前画像を記録する画像記録手段と、
前記現在画像および前記直前画像に基づいて前記所定領域ごとに変化の有無を判断することにより動作領域を特定する動作領域特定手段と、
前記背景画像および前記現在画像に基づいて前記所定領域ごとにおける背景画像との間の差を判断することにより物体領域を特定する物体領域特定手段と、
前記物体領域中における前記動作領域の特定状態を該物体領域に属する所定領域に反映させる領域伝搬手段と、
前記動作領域を含む前記物体領域の全体画像を前記静止画像に合成しつつ出力画像を作成する出力画像作成手段とを備える
ことを特徴とする。
The image processing system according to claim 1,
Image acquisition means for acquiring images continuously photographed at a fixed point;
A predetermined area dividing means for dividing a predetermined area into predetermined areas for the image acquired by the image acquisition means;
A still image creating means for detecting a stationary object from the image obtained by the image obtaining means and creating a still image by the stationary object;
An image recording means for recording a current image, which is the latest image at the time of processing, among the images acquired continuously, and an immediately preceding image acquired immediately before the current image;
An action area specifying means for specifying an action area by determining whether there is a change for each of the predetermined areas based on the current image and the immediately preceding image;
Object region specifying means for specifying an object region by determining a difference between the background image and the background image for each predetermined region based on the background image and the current image;
Region propagation means for reflecting a specific state of the motion region in the object region to a predetermined region belonging to the object region;
Output image creating means for creating an output image while synthesizing the entire image of the object region including the motion region with the still image.

請求項2に記載の画像処理システムは、請求項1に記載の画像処理システムであって、
さらに、前記所定領域ごとに付与されるタイマー値を管理するタイマー管理手段を備え、
前記領域伝搬手段は、
前記動作領域特定手段により特定された動作領域についてはタイマー値をセットし、さらに、前記物体領域特定手段により特定された物体領域を除く全ての領域についてはタイマーをリセットするタイマー処理手段と、
前記動作領域のタイマー値に基づいて前記物体領域のタイマー値を修正するタイマー値伝搬手段とを備え、
前記タイマー管理手段により所定のタイマー値に基づいて前記動作領域を含む前記物体領域の全体画像が作成されるものである
ことを特徴とする。
The image processing system according to claim 2 is the image processing system according to claim 1,
Furthermore, a timer management means for managing a timer value given for each predetermined area is provided,
The region propagation means is
Timer processing means for setting the timer value for the motion area specified by the motion area specifying means, and for resetting the timer for all areas other than the object area specified by the object area specifying means;
Timer value propagation means for correcting the timer value of the object region based on the timer value of the motion region,
The whole image of the object area including the motion area is created by the timer management means based on a predetermined timer value.

請求項3に記載の画像処理システムは、請求項2に記載の画像処理システムであって、
前記タイマー管理手段は、予め設定された所定時間のタイマー値を管理するものであり、
前記背景画像作成手段は、前記タイマー管理手段の所定時間中におけるタイマー値が所定値に満たない前記所定領域を背景領域として特定し、該背景領域における画像により背景画像を作成するものである
ことを特徴とする。
The image processing system according to claim 3 is the image processing system according to claim 2,
The timer management means manages a timer value for a predetermined time set in advance,
The background image creating means identifies the predetermined area whose timer value during the predetermined time of the timer management means is less than a predetermined value as a background area, and creates a background image from the image in the background area. Features.

請求項4に記載の画像処理システムは、請求項2に記載の画像処理システムであって、
前記背景画像作成手段は、画像取得手段により取得される連続的な画像から、所定時間ごとに背景領域が更新されるものである
ことを特徴とする。
The image processing system according to claim 4 is the image processing system according to claim 2,
The background image creation means is characterized in that the background area is updated every predetermined time from the continuous images acquired by the image acquisition means.

請求項5に記載の画像処理方法は、
コンピュータにより処理させる画像処理方法であって、
定点において連続的に撮影される画像を取得する画像取得ステップと、
前記画像取得ステップによって取得される画像について、予め定めた区画を所定領域として該所定領域ごとに分割する所定領域分割ステップと、
前記画像取得ステップにより取得された画像から静止物を検出し、該静止物による一時的な静止画像を作成する初期静止画像作成ステップと、
連続的に取得される画像のうち、処理時における最新の画像である現在画像および該現在画像の直前に取得した直前画像を記録する画像記録ステップと、
前記現在画像および前記直前画像に基づいて前記所定領域ごとに変化の有無を判断することにより動作領域を特定する動作領域特定ステップと、
前記背景画像および前記現在画像に基づいて前記所定領域ごとにおける背景画像との間の差を判断することにより物体領域を特定する物体領域特定ステップと、
前記動作領域特定手段により特定された動作領域についてはタイマーをセットし、さらに、前記物体領域特定手段により特定された物体領域を除く全ての領域についてはタイマーをリセットするタイマー処理ステップと、
前記動作領域のタイマー値に基づいて前記物体領域のタイマー値を修正するタイマー値伝搬ステップと、
前記タイマーの値が所定値に満たない所定領域を特定し、該所定領域を背景領域として認定する背景領域認定ステップと、
前記背景領域を前記一時的背景画像に反映させ、背景画像を更新する背景画像更新ステップと、
前記動作領域を含む前記物体領域を、更新された背景画像に合成しつつ出力画像を作成する出力画像作成ステップとを含む
ことを特徴とする。
The image processing method according to claim 5 comprises:
An image processing method for processing by a computer,
An image acquisition step of acquiring images continuously photographed at a fixed point;
A predetermined area dividing step for dividing the predetermined area as a predetermined area for the image acquired by the image acquiring step;
An initial still image creating step of detecting a stationary object from the image acquired by the image acquiring step and creating a temporary still image by the stationary object;
An image recording step of recording a current image that is the latest image at the time of processing and an immediately preceding image acquired immediately before the current image among images that are continuously acquired;
An operation region specifying step of specifying an operation region by determining whether there is a change for each of the predetermined regions based on the current image and the immediately preceding image;
An object region specifying step of specifying an object region by determining a difference between the background image and the background image for each of the predetermined regions based on the background image and the current image;
A timer processing step for setting a timer for the motion area specified by the motion area specifying means, and for resetting the timer for all areas other than the object area specified by the object area specifying means;
A timer value propagation step of correcting the timer value of the object region based on the timer value of the motion region;
Identifying a predetermined area where the value of the timer is less than a predetermined value, and certifying the predetermined area as a background area; and
A background image update step of reflecting the background region in the temporary background image and updating the background image;
And an output image creating step of creating an output image while synthesizing the object region including the motion region with the updated background image.

本発明により、背景と物体の両方が変化する場合であっても、その両方の変化の区別が可能となる。さらに、背景画像と物体画像についてのモデルを構築しないので、背景や物体を限定せずに適用可能である。
According to the present invention, even when both the background and the object change, it is possible to distinguish between both changes. Further, since a model for the background image and the object image is not constructed, the present invention can be applied without limiting the background and the object.

本発明に係る画像処理システムの構成を示す図である。1 is a diagram illustrating a configuration of an image processing system according to the present invention. 本発明に係る画像処理の詳細を示す図である。It is a figure which shows the detail of the image processing which concerns on this invention. 本発明に係る画像処理の流れを示す図である。It is a figure which shows the flow of the image processing which concerns on this invention. 本発明の実施例に係る画像処理の初期状態を示す図である。It is a figure which shows the initial state of the image processing which concerns on the Example of this invention. 本発明の実施例に係る画像処理において、箱を持ち上げた直後の背景画像と現在画像を重ね合わせた結果を示す図である。In the image processing which concerns on the Example of this invention, it is a figure which shows the result of having superimposed the background image and the present image immediately after lifting a box. 本発明の実施例に係る画像処理において、箱を持ち上げた直後から一定時間経過した後の背景画像と現在画像の重ね合わせた結果を示す図である。In the image processing which concerns on the Example of this invention, it is a figure which shows the result of having overlap | superposed the background image and the present image after a fixed time passes immediately after lifting a box. 本発明の実施例に係る画像処理において、背景画像を最新画像に更新開始するまでのタイマー値の伝搬処理を行わない場合の結果を示す図である。It is a figure which shows the result when not performing the propagation process of the timer value until it starts update of a background image to the newest image in the image processing which concerns on the Example of this invention. 本発明の実施例に係る画像処理において、箱を持ち上げた直後から一定時間経過した後の管理区画毎の保持情報(タイマーの値)を、各値に対応した記号で示す図である。In the image processing according to the embodiment of the present invention, it is a diagram showing the retention information (timer value) for each management section after a fixed time has passed from immediately after lifting the box, with symbols corresponding to each value.

以下、本発明の実施形態について、図を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本発明に係る画像処理システムの構成を図1に示す。前記画像処理システムの構成は、カメラなどの画像入力装置、画像および映像を表示するディスプレイなどの画像表示装置、本発明に係る画像処理に必要な演算を行うCPU(Central Processing Unit)などの演算処理装置101、前記画像処理に必要なプログラムおよび画像情報を格納し、保持する記憶装置102がバス接続されている。前記画像入力装置は、定点において連続的に撮像される画像を取得する(画像取得手段として機能する)。記憶装置102は、ROM(Read Only Memory)およびRAM(Random Access Memory)、あるいはRAMおよびハードディスクなどの外部記憶装置からなり、本発明に係る画像処理に必要なプログラムおよび画像情報を格納し、保持しており(画像記録手段として機能し)、必要に応じて上記バス接続された複数の装置を適切に制御し、所定の処理結果を得ることができる。   The configuration of the image processing system according to the present invention is shown in FIG. The configuration of the image processing system includes an image input device such as a camera, an image display device such as a display that displays images and videos, and a calculation process such as a CPU (Central Processing Unit) that performs calculations necessary for image processing according to the present invention. A device 101 and a storage device 102 that stores and holds a program and image information necessary for the image processing are connected by a bus. The image input device acquires images continuously captured at fixed points (functions as an image acquisition unit). The storage device 102 includes a ROM (Read Only Memory) and a RAM (Random Access Memory), or an external storage device such as a RAM and a hard disk, and stores and holds a program and image information necessary for image processing according to the present invention. (Functions as an image recording means), and can appropriately control the plurality of devices connected by the bus as necessary to obtain a predetermined processing result.

なお、上述の画像処理システムの構成は、実施形態の説明のための一例であって、これに限られるものでない。   Note that the configuration of the above-described image processing system is an example for describing the embodiment, and is not limited thereto.

次に、本発明に係る画像処理の詳細について図2および図3に示す。   Next, details of the image processing according to the present invention are shown in FIGS.

図2において、前記画像処理システムの記憶装置102には、現在の画像、直前の画像、背景画像、ならびに、区分けされた画像の管理区画(領域)毎に背景画像を最新の画像に更新するまでのタイマー、該更新タイマーの設定に使用する物体領域のタイマーが設けられる(タイマー管理手段として機能し得る)。さらに、現在の画像と直前の画像との比較結果が保持される。   In FIG. 2, the storage device 102 of the image processing system stores the current image, the previous image, the background image, and the background image updated to the latest image for each management section (area) of the divided image. And an object area timer used for setting the update timer (can function as timer management means). Furthermore, the comparison result between the current image and the previous image is held.

一方、演算処理装置101は、二つの画像を比較し、違いのある部分を検出する演算、管理区画毎に周囲の最大値を次の値にする伝搬演算、ビット演算、加減算、条件による値の設定を行うことができる。この演算処理装置101が、所定領域分割手段、静止画像作成手段、領域伝搬手段および出力画像作成手段として機能し得る。   On the other hand, the arithmetic processing unit 101 compares two images and detects a difference portion, a propagation operation that sets the surrounding maximum value to the next value for each management partition, a bit operation, addition / subtraction, and a condition value Settings can be made. The arithmetic processing apparatus 101 can function as a predetermined area dividing unit, a still image creating unit, a region propagation unit, and an output image creating unit.

本発明に係る画像処理では、まず、最新の現在画像フレーム(以下、図も含めてcurrentFrameと記す。)および、背景のほぼ静止した背景画像フレーム(以下、図も含めてbackgroundFrameと記す。)が、表示解像度と同一の解像度で保持される(画像取得ステップ、画像記録ステップ)。   In the image processing according to the present invention, first, the latest current image frame (hereinafter referred to as “currentFrame” including a figure) and the background image frame (hereinafter also referred to as “backgroundFrame” including a figure) whose background is substantially stationary. The image is held at the same resolution as the display resolution (image acquisition step, image recording step).

直近の変化を検出するために、一つ前の時点での画像フレーム(以下、図も含めてpreviousFrameと記す。)を保持し、変化の判定が可能な範囲で解像度を低下させたり、または色を変化させたり、あるいは解像度および色を変化させて保持してもよい。前記解像度は、表示解像度とは独立であり、該表示解像度と同一であってもよいが、通常は低い解像度で使用される。   In order to detect the most recent change, the image frame (hereinafter referred to as “previous frame” including the figure) at the previous time point is retained, and the resolution is reduced within the range where the change can be determined, or the color is changed. Or may be held by changing the resolution and color. The resolution is independent of the display resolution and may be the same as the display resolution, but is usually used at a low resolution.

previousFrameは、動作領域や物体領域などの領域管理のために情報を保持している(所定領域分割ステップ)。前記領域管理の単位は、画像上にて区画を形成するので、以下、管理区画と記す。   The previous frame holds information for area management such as an operation area and an object area (predetermined area dividing step). Since the unit of area management forms a section on the image, it is hereinafter referred to as a management section.

本発明に係る画像処理では、前記管理区画毎に、直近で変化した部分かどうかの判定結果(以下、図も含めてactiveMapと記す。)および、currentFrameと、backgroundFrameとが同一かどうかの判定結果(以下、図も含めてobjectMapと記す。)を管理する。また、前記管理区画毎に、背景と判定するまでの残り時間を示したタイマーの整数値(以下、図も含めてupdateTimerと記す。)および、物体領域のタイマーの整数値(以下、図も含めてObjectTimerと記す。)を管理する。   In the image processing according to the present invention, for each of the management sections, a determination result as to whether or not the portion has changed most recently (hereinafter referred to as activeMap including the drawings), and a determination result as to whether the currentFrame and the backgroundFrame are the same. (Hereinafter referred to as objectMap, including the figure). Further, for each management section, an integer value of a timer (hereinafter referred to as “updateTimer” including the figure) indicating a remaining time until the background is determined and an integer value of the timer of the object area (hereinafter also including the figure). (Referred to as ObjectTimer).

本発明係る画像処理の前提として、二つのケースに分けられる(初期静止画像作成ステップ)。   As a premise of the image processing according to the present invention, there are two cases (initial still image creation step).

一つ目のケースは、backgroundFrameには動作物がなく、updateTimerはすべて時間切れの値となっている状態である。   In the first case, there is no moving object in the background frame, and all the updateTimers are time-out values.

二つ目のケースは、任意のbackgroundFrameの値とupdateTimerの値からアルゴリズムを動作させ続けて、backgroundFrameには静止物の映像が求まっており、updateTimerには、動作物を覆う領域に、適切な値が設定されている状態である。前記動作物が存在するか否かの情報はobjectTimerに獲得されており、その値を該動作物の周囲の領域(覆う領域)に伝搬することにより、前記updateTimerには、該動作物およびそれを覆う領域に適切な値が設定される。
上述した二つのケースのどちらかの状態から、現在画像と直前画像を取得した後、目的の画像を生成するために、図3に示す七つのステップを繰り返す。以下、図3に示す七つのステップの詳細について説明する。
In the second case, the algorithm is continuously operated from the value of arbitrary backgroundFrame and updateTimer, and the image of the stationary object is obtained in backgroundFrame, and updateTimer has an appropriate value in the area covering the operation object. Is set. Information on whether or not the operation object exists is acquired by the objectTimer, and the value is transmitted to the surrounding area (covering area) of the operation object. An appropriate value is set for the area to be covered.
After obtaining the current image and the previous image from either of the two cases described above, the seven steps shown in FIG. 3 are repeated to generate the target image. Details of the seven steps shown in FIG. 3 will be described below.

ステップ1.現在画像と直前画像から動作領域を求める(図2中、201で示す処理、動作領域特定ステップ)。
管理区画毎に、currentFrameの画素とpreviousFrameの画素を比べて、該currentFrameの画素が変わったかを判定し、その判定結果をactiveMapに格納する。そして、判定に利用したcurrentFrameの情報をpreviousFrameに格納する。
Step 1. An operation area is obtained from the current image and the immediately preceding image (processing indicated by 201 in FIG. 2, operation area specifying step).
For each management partition, the current frame pixel and the previous frame pixel are compared to determine whether the current frame pixel has changed, and the determination result is stored in the activeMap. Then, the current frame information used for the determination is stored in the previous frame.

前記activeMapの値を保持するメモリを使わなくても、activeMapの値が必要になったときに、previousFrameの画素と、currentFrameの画素を参照して求めることもでもよい。このとき、前記previousFrameの更新は、その値を利用し終わった後に行うことになる。   Even if the memory for holding the value of the activeMap is not used, when the value of the activeMap is required, it may be obtained by referring to the pixels of the previous frame and the current frame. At this time, the previous Frame is updated after the value is used.

currentFrameの画素の変化の有無を判定する方法は多数存在するが、最も簡単な方法として、閾値をもうけて、previousFrameの画素と、該currentFrameの画素の管理区画での平均的な色の変化が前記閾値よりも大きいかを判定することでもよい。物体が遮蔽しないケースで変化があったと判定することがあってもよいが、その影響が少なくなるような方法を選ぶと効果がある。あるいは、画素が変化しなくても、画素の特徴や、画素の位置から、その部分は動いていることと等価とみなして、activeMap情報を設定してもよい。   There are many methods for determining whether or not there is a change in the currentFrame pixel, but the simplest method is to set a threshold value and change the average color in the management frame for the pixel of the previousFrame and the currentFrame pixel. It may be determined whether it is larger than the threshold value. Although it may be determined that there is a change in a case where the object is not occluded, it is effective to select a method that reduces the influence. Alternatively, even if the pixel does not change, the activeMap information may be set by regarding the feature of the pixel and the position of the pixel as equivalent to moving the part.

ステップ2.現在画像と背景画像から物体領域を求める(図2中、202で示す処理、物体領域特定ステップ)。
管理区画毎に、currentFrameの画素と、backgroundFrameの画素を比べて、差があるかを判定し、その結果をobjectMapに格納する。あるいはobjectMapの値が必要になったときに、currentFrameの画素と、backgroundFrameの画素を参照して求めても良い。
currentFrameの画素と、backgroundFrameの画素の差を判定する方法は多数あるが、最も簡単な方法として、閾値をもうけて、該currentFrameの画素と、該backgroundFrameの画素の管理区画での平均的な色の変化が、前記閾値より大きいかを判定することでもよい。実際に変化がないのに変化があると判定することがあってもよいが、その影響が少なくなるような方法を選ぶと前記画素の差に関する判定の効果が上がる。その後、オブジェクトの領域を太くする。具体的には、近隣の画素の変化がある場合には、そこにオブジェクトが存在するとみなして、オブジェクトの有り、または無しの情報をobjectMapに格納する。近隣として、該当の画素のすぐ隣の画素をとってもよい。
Step 2. An object area is obtained from the current image and the background image (processing indicated by 202 in FIG. 2, object area specifying step).
For each management partition, the currentFrame pixel and the backgroundFrame pixel are compared to determine whether there is a difference, and the result is stored in the objectMap. Alternatively, when the value of objectMap becomes necessary, the value may be obtained by referring to the currentFrame pixel and the backgroundFrame pixel.
There are many ways to determine the difference between the currentFrame pixel and the backgroundFrame pixel, but the simplest method is to create a threshold value and change the average color of the currentFrame pixel and the backgroundFrame pixel in the management section. It may be determined whether the change is larger than the threshold value. Although it may be determined that there is a change even though there is no actual change, if a method that reduces the influence is selected, the effect of the determination regarding the pixel difference increases. Thereafter, the object area is thickened. Specifically, when there is a change in neighboring pixels, it is assumed that an object exists there, and information on the presence or absence of the object is stored in the objectMap. As a neighborhood, a pixel immediately adjacent to the corresponding pixel may be taken.

ステップ3.動作領域についてタイマーをセットする(図2中、203で示す処理、タイマー処理ステップの一部)。
管理区画毎にactiveMapが真であると判定した管理区画に対応するupdateTimerに、定まった時間の値をセットする。偽であるところは、値を変化させない。定まった時間は、どのような時間でも良いが、応用毎に調整すると効果がある。
Step 3. A timer is set for the operation region (the process indicated by 203 in FIG. 2, part of the timer processing step).
A predetermined time value is set in updateTimer corresponding to the management partition for which activeMap is determined to be true for each management partition. If it is false, the value is not changed. The fixed time may be any time, but it is effective to adjust for each application.

ステップ4.物体領域以外のタイマーをリセットする(図2中、204で示す処理、タイマー処理ステップの一部)。
管理区画毎にobjectMapが偽である区画に対応するobjectTimerにゼロを設定する。一方、objectMapが真の場合には、objectTimerに対応するupdateTimerの値を設定する。
Step 4. The timer other than the object area is reset (the process indicated by 204 in FIG. 2, part of the timer processing step).
For each management partition, zero is set for the objectTimer corresponding to the partition whose objectMap is false. On the other hand, if objectMap is true, the value of updateTimer corresponding to objectTimer is set.

ステップ5.タイマーの値を更新する(周辺に値を伝搬させてから時間を進める)(図2中、205で示す処理、タイマー値伝搬ステップ)。
objectTimerを基にupdateTimerの値を伝搬して更新することにより、該objectTimerの値を一斉に周囲の値に伝搬させる。具体的には、隣接する管理区画のobjectTimerの値と、該当する管理区画のobjectTimerの値から、次のupdateTimerの値を求める。例えば、該当の管理区画に隣接する8つのobjectTimerと該当の管理区画のobjectTimerの合計9つの値の最大値をとってもよい。あるいは、方向を加味しながら、該当の管理区画の周囲のobjectTimerの値から減じた値を計算し、その最大値をとってもよい。前記updateTimerの値の求めた後、管理区画毎に、該updateTimerの値が正であれば、その値を減らす。減らす値は、どのようにしてもよい。最も簡単な方法では、1を減じることでよい。また、減ずる値は、管理区画の位置などの特徴によって変化させてもよい。
Step 5. The timer value is updated (the time is advanced after the value is propagated to the periphery) (the process indicated by 205 in FIG. 2, the timer value propagation step).
By propagating and updating the value of updateTimer based on the objectTimer, the value of the objectTimer is propagated all at once to surrounding values. Specifically, the next updateTimer value is obtained from the value of the objectTimer of the adjacent management partition and the value of the objectTimer of the corresponding management partition. For example, a maximum value of a total of nine values of the eight object timers adjacent to the corresponding management partition and the object timer of the corresponding management partition may be taken. Alternatively, the value obtained by subtracting the value of objectTimer around the corresponding management section may be calculated while taking the direction into account, and the maximum value may be taken. After obtaining the value of updateTimer, if the value of updateTimer is positive for each management partition, the value is decreased. Any value can be used to decrease the value. The simplest way is to subtract one. Further, the value to be decreased may be changed depending on characteristics such as the position of the management section.

ステップ6.タイムアウト領域について、背景画像を現在画像に更新する(図2中、206で示す処理、背景領域認定ステップおよび背景画像更新ステップ)。
管理区画毎に、updateTimerの値が適切な値以下になったとき、backgroundFrameを、currentFrameに近づける。最も単純な方法では、対応する区画について、前記backgroundFrameを、前記currentFrameに置き換えることでもよい。あるいは、前記currentFrameに徐々に近づけるように更新してもよい。前記適切な値は、一定値であってもよい。また、オブジェクトの形状によって計算される値でもよい。
Step 6. For the timeout area, the background image is updated to the current image (the process indicated by 206 in FIG. 2, the background area recognition step and the background image update step).
For each management partition, when the value of updateTime is equal to or less than the appropriate value, the background frame is brought closer to the current frame. In the simplest method, the backgroundFrame may be replaced with the currentFrame for the corresponding partition. Or you may update so that it may approach the said currentFrame gradually. The appropriate value may be a constant value. Further, it may be a value calculated according to the shape of the object.

ステップ7.背景画像を利用して、応用に応じた画像を合成する(図2中、207で示す処理、出力画像作成ステップ)。
backgroundFrameと、currentFrameの二つの画像が高解像度の画像であるので、前記二つの画像から、表示する合成画像を生成する。例えば、板書の支援のためには、二つの画像をブレンドすることでもよい。あるいは、前記backgroundFrameだけを表示するのでもよい。あるいは、二つの画像の差を処理するところで、精密な物体の輪郭を検出するのでもよい。あるいは、物体だけを取り出し、背景はすべて単一の色にすることでもよい。
Step 7. An image corresponding to the application is synthesized using the background image (processing indicated by 207 in FIG. 2, output image creation step).
Since the two images of backgroundFrame and currentFrame are high-resolution images, a composite image to be displayed is generated from the two images. For example, two images may be blended for the support of the board writing. Alternatively, only the background frame may be displayed. Alternatively, a precise contour of an object may be detected when a difference between two images is processed. Alternatively, only the object can be taken out and the background can all be a single color.

上記の画像処理システムでは、説明中の人間などの「一部に動作がある」ということを利用して区別しているが、特別なマーカや、人為的に点滅するような器具を身につけているものだけを、選択的に物体とすることもできる。たとえば、点滅を繰り返す器具を身につける状況であれば、停止しているかどうかの判定までのタイマーの値を小さくすることができ、速やかに板書を更新することもできる。
In the above image processing system, it is distinguished using the fact that there are some motions such as human beings in the explanation, but wearing special markers and artificially blinking instruments Only things can be selectively made into objects. For example, in a situation where a device that repeatedly blinks is worn, the value of the timer until it is determined whether or not it is stopped can be reduced, and the board can be updated quickly.

図4は、机の上に単色の箱が置いてある状況を示す図である。ここで箱を手で持ち上げて保持するとき、机の上に置いてある箱は背景に属し、保持している箱は背景を覆うオブジェクトに属することになる。したがって、本実施例では、机に置いてある箱の像の変化は、速やかに背景に反映され、そのときに保持された箱の像は背景に反映されない。以下に、前記結果が得られるまでの流れを示す。   FIG. 4 is a diagram illustrating a situation in which a monochrome box is placed on a desk. Here, when the box is lifted and held by hand, the box placed on the desk belongs to the background, and the held box belongs to the object covering the background. Therefore, in this embodiment, the change in the image of the box placed on the desk is immediately reflected in the background, and the image of the box held at that time is not reflected in the background. The flow until the above result is obtained is shown below.

図5は、机の上の箱を手で持ち上げた直後の背景画像と現状画像を重ね合わせた図である。机の上の箱が半透明であるのは、机の上に箱が置いてある背景画像に、箱を手で持ち上げて、机の上からなくなった状態の現状画像が重ね合わさせた結果であり、持ち上げている腕と箱が半透明なのは、手で箱を持ち上げて保持した状態の現状画像に、箱と腕のない背景画像が重ね合わさせた結果である。   FIG. 5 is a diagram in which the background image immediately after the box on the desk is lifted by hand and the current image are superimposed. The box on the desk is translucent because the background image with the box on the desk is superimposed on the current image that is lifted by hand and is no longer on the desk. The reason why the arm and the box being lifted are translucent is the result of superimposing the background image without the box and the arm on the current image in which the box is lifted and held by hand.

図6は、手で箱を持ち上げて保持した状態から、一定時間が経過した後の状態を示す図である。このとき、できるだけ箱と腕が静止するように保持した。机の上の箱の像が消えたのは、背景画像から机の上の箱の像が消えたことを意味する。一方で、手で保持された箱が半透明のままであるのは、背景画像には保持された箱の像がないことを意味する。例えば、授業風景で利用する場合、定規を使用して線を書いたり、黒板消しで字を消したりするとき、定規も黒板消しも板書を隠すオブジェクトとして扱えることを意味する。人が保持する物体を人の一部として扱えることが、この方法の特徴である。物体領域を追跡するような既存の方法では、机の上に置いた箱と手で保持された箱を区別することは難しい。あるいは、人物の特徴を利用した方法では、人が定規などを保持する場合、それが人の延長であることを識別することは難しい。   FIG. 6 is a diagram illustrating a state after a predetermined time has elapsed from a state where the box is lifted and held by hand. At this time, the box and arms were held as stationary as possible. The disappearance of the image of the box on the desk means that the image of the box on the desk has disappeared from the background image. On the other hand, a box held by hand remains translucent means that the background image does not have a held box image. For example, when used in a classroom, when a ruler is used to draw a line or a blackboard eraser erases characters, it means that both the ruler and the blackboard eraser can be treated as an object that hides the board. The feature of this method is that an object held by a person can be handled as a part of the person. With existing methods such as tracking an object area, it is difficult to distinguish between a box placed on a desk and a box held by hand. Alternatively, in the method using the characteristics of a person, when a person holds a ruler or the like, it is difficult to identify that it is an extension of the person.

図7は、単色の箱を手で持ち持ち上げた状態から箱を揺らした場合、本発明に係る画像処理システムにおいて、背景画像を最新画像に更新開始するまでのタイマー値の伝搬処理を用いず、各管理区画で定められた一定時間以上経過しても変化がなかったときに、その区画を背景とする方法を用いて処理を行った結果を示した図である。箱の外側部分が半透明なのは、一定時間経過後に変化ありと判断された結果であり、箱の中心が半透明でないのは、一定時間経過後に変化なしと判断されたためである。前記方法では、箱の中心部分を除いた外側部分は物体として認識されるが、箱の中心は背景と認識され、箱全体を物体として認識することができない。これを避けるために、変化の検出時間を長くすることも考えられるが、検出時間が長くなると動かなくなったものを背景と認識するまでの時間も長くなってしまう。そこで、本実施例では、一定時間経過後に変化ありと判断された管理区画のタイマー値を、その周囲にも伝搬させる処理を用いた。   FIG. 7 shows that when the box is shaken from a state where the single color box is lifted by hand, the image processing system according to the present invention does not use the propagation process of the timer value until the update of the background image to the latest image is started. It is the figure which showed the result of having processed using the method which uses the division as a background, when there is no change even if the fixed time defined more than each management division passes. The reason why the outer part of the box is translucent is the result of being determined to have changed after a certain period of time. The reason why the center of the box is not translucent is that it has been determined that there has been no change after a certain period of time. In the above method, the outer part excluding the central part of the box is recognized as an object, but the center of the box is recognized as the background, and the entire box cannot be recognized as an object. In order to avoid this, it is conceivable to lengthen the detection time of the change. However, if the detection time becomes long, it takes a long time to recognize an object that has stopped moving as the background. Therefore, in this embodiment, a process is used in which the timer value of the management section that is determined to have changed after a certain time has passed is propagated to its surroundings.

図8は、手で箱を持ち上げて保持した状態から一定時間が経過した後の、管理区画(縦30×横40の区画)毎のupdateTimerの値を記号で表して示したものである。上記の手で箱を持ち上げて保持した状態(図6)の場合と同様に、箱と腕をできるだけ静止するように保持している。   FIG. 8 shows the values of updateTimer for each management section (length 30 × width 40) after a certain time has elapsed since the box was lifted and held by hand. Similar to the case where the box is lifted and held by the hand (FIG. 6), the box and the arm are held as stationary as possible.

また、図8中、動作領域(ひし形記号)は、現在の画像と直前の画像に違いがあると判定された、動作領域の部分である。本実施例では、前記動作領域(ひし形記号)は、指の部分である。指の部分は画素の空間変化が大きいことと、物を保持して力を加えているときに微妙に動きやすいことにより、大きな色の変化が検出され、動作領域と判定されている。前記動作領域(ひし形記号)の周辺部分は、腕あるいは保持している箱の部分であるが、本実施例では静止するように保持しているために、厳密には動いているとしても、それが検出の閾値以下であるので、動作領域とは判定されていない。   In FIG. 8, the motion region (diamond symbol) is a portion of the motion region where it is determined that there is a difference between the current image and the previous image. In this embodiment, the operation area (diamond symbol) is a finger part. The finger portion has a large pixel spatial change and is easily moved slightly while holding an object and applying a force, so that a large color change is detected and determined as an operation region. The peripheral part of the operation area (diamond symbol) is an arm or a part of a holding box. In this embodiment, since it is held stationary, even if it moves strictly, it Is equal to or less than the detection threshold value, it is not determined as an operation region.

図8中、タイムアウトでない物体領域(星形記号)および、タイムアウト直前の物体領域(斜め十字記号)は、背景画像と現在画像に差があると判定された物体領域である。差があるのは、背景に属していた机上の箱の部分と、最新画像における持ち上げられた箱および腕の部分の2種類である。机の上の箱が背景から消えた現在画像には、物体(前記机上の箱)が存在しないのだが、背景画像に存在していたという意味で、両方とも物体領域とみなす。   In FIG. 8, the object region that is not timed out (star symbol) and the object region immediately before the time-out (diagonal cross symbol) are object regions that are determined to have a difference between the background image and the current image. There are two types of differences: the box portion on the desk that belonged to the background, and the raised box and arm portions in the latest image. Although the object (the box on the desk) does not exist in the current image in which the box on the desk disappears from the background, both are regarded as object areas in the sense that they existed in the background image.

前記タイムアウトでない物体領域(星形記号)と、前記タイムアウト直前の物体領域(斜め十字記号)の間には、更新されるまでの時間であるupdateTimerの値に差がある。前記タイムアウトでない物体領域(星形記号)は、まだ、背景に取り込まれるまでに時間があり、前記タイムアウト直前の物体領域(斜め十字記号)は、時間切れになろうとしているところである。
前記updateTimerの値は、上記ステップ5で示す通り、画像上で接続している物体領域で伝搬させる。すると、伝搬により前記updateTimerの値が連続する領域の全体に広がってセットされるために、前記動作領域(ひし形記号)をどこかに持つ領域、つまり前記タイムアウトでない物体領域(星形記号)(ここでは保持された箱の領域に相当する)は、全体としてタイムアウトにならない。一方で、机上の箱がなくなったところに相当する、前記タイムアウト直前の物体領域(斜め十字記号)には、内部もしくは隣に、前記動作領域(ひし形記号)がないので、所定の時間が経過すると全体がタイムアウト状態となる。よって、前記タイムアウト直前の物体領域(斜め十字記号)は、箱が持ち上げられて机上からなくなったことにより、領域全体がタイムアウト状態になる直前の状態である。
There is a difference in the value of updateTimer, which is the time until update, between the object region that is not timed out (star symbol) and the object region immediately before the time-out (diagonal cross symbol). The non-timeout object area (star symbol) still has time to be captured in the background, and the object area just before the timeout (diagonal cross symbol) is about to expire.
The value of the updateTimer is propagated in the object region connected on the image as shown in Step 5 above. Then, since the value of the updateTimer is set to spread over the entire continuous region due to propagation, the region having the operation region (diamond symbol) somewhere, that is, the object region (star symbol) that is not timed out (here (Which corresponds to the area of the stored box) does not time out as a whole. On the other hand, the object area (diagonal cross symbol) immediately before the time-out corresponding to the place where the box on the desk disappears does not have the operation area (diamond symbol) inside or next to it. The whole will time out. Therefore, the object area (diagonal cross symbol) immediately before the timeout is a state immediately before the entire area is timed out due to the box being lifted and removed from the desk.

図8中、タイムアウトでない非物体領域(十字記号)は、上記タイムアウトでない物体領域(星形記号)に隣接している領域である。前記タイムアウトでない物体領域(星形記号)の周囲に前記updateTimerの値を伝搬させることによって、前記タイムアウトでない非物体領域(十字記号)と前記タイムアウトでない物体領域(星形記号)の両方の前記updateTimerに値がセットされていることになる。上記タイムアウト直前の物体領域(斜め十字記号)の周囲に前記タイムアウトでない非物体領域(十字記号)が存在しないのは、タイムアウト直前であるため、前記updateTimerの値が伝搬されていないことを示している。   In FIG. 8, a non-object area (cross symbol) that is not timed out is an area adjacent to the object area (star symbol) that is not timed out. By propagating the value of the updateTimer around the non-timeout object region (star symbol), the updateTimer of both the non-timeout non-object region (cross symbol) and the non-timeout object region (star symbol) The value is set. The fact that there is no non-object area (cross symbol) that is not time-out around the object area (diagonal cross symbol) immediately before the timeout indicates that the value of the updateTimer is not propagated because it is immediately before the timeout. .

図8中、タイムアウトの非物体領域(ドット記号)は、タイムアウトした状態の領域でかつ、物体領域と判定されていないところである。前記動作領域(ひし形記号)、前記タイムアウトでない物体領域(星形記号)、前記タイムアウトでない非物体領域(十字記号)は、タイムアウトした状態の領域でない。タイムアウトした状態の領域では、背景画像が現在画像で更新される。更新が完了すると、背景画像と現在画像が一致するので、その領域は物体領域と判定されなくなる。
In FIG. 8, a non-object area (dot symbol) that has timed out is an area that has timed out and is not determined to be an object area. The operation area (diamond symbol), the non-timeout object area (star symbol), and the non-timeout non-object area (cross symbol) are not timed out areas. In the time-out area, the background image is updated with the current image. When the update is completed, since the background image matches the current image, the area is not determined as the object area.

本発明は、区別する動作物と静止物の対象が限定されないため、ロボット産業、医療分野(手術画像)、エンターテイメント産業などさまざまな分野の画像処理システムに利用可能である。
The present invention is applicable to image processing systems in various fields such as the robot industry, the medical field (surgical image), the entertainment industry and the like because the objects of the moving object and the stationary object to be distinguished are not limited.

101 演算処理装置
102 記憶装置

101 arithmetic processing unit 102 storage device

Claims (5)

定点において連続的に撮影される画像を取得する画像取得手段と、
前記画像取得手段によって取得される画像について、予め定めた区画を所定領域として該所定領域ごとに分割する所定領域分割手段と、
前記画像取得手段により取得された画像から静止物を検出し、該静止物による静止画像を作成する静止画像作成手段と、
連続的に取得される画像のうち、処理時における最新の画像である現在画像および該現在画像の直前に取得した直前画像を記録する画像記録手段と、
前記現在画像および前記直前画像に基づいて前記所定領域ごとに変化の有無を判断することにより動作領域を特定する動作領域特定手段と、
前記背景画像および前記現在画像に基づいて前記所定領域ごとにおける背景画像との間の差を判断することにより物体領域を特定する物体領域特定手段と、
前記物体領域中における前記動作領域の特定状態を該物体領域に属する所定領域に反映させる領域伝搬手段と、
前記動作領域を含む前記物体領域の全体画像を前記静止画像に合成しつつ出力画像を作成する出力画像作成手段とを備える
ことを特徴とする画像処理システム。
Image acquisition means for acquiring images continuously photographed at a fixed point;
A predetermined area dividing means for dividing a predetermined area into predetermined areas for the image acquired by the image acquisition means;
A still image creating means for detecting a stationary object from the image obtained by the image obtaining means and creating a still image by the stationary object;
An image recording means for recording a current image, which is the latest image at the time of processing, among the images acquired continuously, and an immediately preceding image acquired immediately before the current image;
An action area specifying means for specifying an action area by determining whether there is a change for each of the predetermined areas based on the current image and the immediately preceding image;
Object region specifying means for specifying an object region by determining a difference between the background image and the background image for each predetermined region based on the background image and the current image;
Region propagation means for reflecting a specific state of the motion region in the object region to a predetermined region belonging to the object region;
An image processing system comprising: an output image creating unit that creates an output image while synthesizing an entire image of the object region including the motion region with the still image.
さらに、前記所定領域ごとに付与されるタイマー値を管理するタイマー管理手段を備え、
前記領域伝搬手段は、
前記動作領域特定手段により特定された動作領域についてはタイマー値をセットし、さらに、前記物体領域特定手段により特定された物体領域を除く全ての領域についてはタイマーをリセットするタイマー処理手段と、
前記動作領域のタイマー値に基づいて前記物体領域のタイマー値を修正するタイマー値伝搬手段とを備え、
前記タイマー管理手段により所定のタイマー値に基づいて前記動作領域を含む前記物体領域の全体画像が作成されるものである
ことを特徴とする請求項1に記載の画像処理システム。
Furthermore, a timer management means for managing a timer value given for each predetermined area is provided,
The region propagation means is
Timer processing means for setting the timer value for the motion area specified by the motion area specifying means, and for resetting the timer for all areas other than the object area specified by the object area specifying means;
Timer value propagation means for correcting the timer value of the object region based on the timer value of the motion region,
The image processing system according to claim 1, wherein an entire image of the object area including the motion area is created based on a predetermined timer value by the timer management unit.
前記タイマー管理手段は、予め設定された所定時間のタイマー値を管理するものであり、
前記背景画像作成手段は、前記タイマー管理手段の所定時間中におけるタイマー値が所定値に満たない前記所定領域を背景領域として特定し、該背景領域における画像により背景画像を作成するものである
ことを特徴とする請求項2に記載の画像処理システム。
The timer management means manages a timer value for a predetermined time set in advance,
The background image creating means identifies the predetermined area whose timer value during the predetermined time of the timer management means is less than a predetermined value as a background area, and creates a background image from the image in the background area. The image processing system according to claim 2, wherein:
前記背景画像作成手段は、画像取得手段により取得される連続的な画像から、所定時間ごとに背景領域が更新されるものである
ことを特徴とする請求項2に記載の画像処理システム。
The image processing system according to claim 2, wherein the background image creating unit updates a background region every predetermined time from continuous images acquired by the image acquiring unit.
コンピュータにより処理させる画像処理方法であって、
定点において連続的に撮影される画像を取得する画像取得ステップと、
前記画像取得ステップによって取得される画像について、予め定めた区画を所定領域として該所定領域ごとに分割する所定領域分割ステップと、
前記画像取得ステップにより取得された画像から静止物を検出し、該静止物による一時的な静止画像を作成する初期静止画像作成ステップと、
連続的に取得される画像のうち、処理時における最新の画像である現在画像および該現在画像の直前に取得した直前画像を記録する画像記録ステップと、
前記現在画像および前記直前画像に基づいて前記所定領域ごとに変化の有無を判断することにより動作領域を特定する動作領域特定ステップと、
前記背景画像および前記現在画像に基づいて前記所定領域ごとにおける背景画像との間の差を判断することにより物体領域を特定する物体領域特定ステップと、
前記動作領域特定手段により特定された動作領域についてはタイマーをセットし、さらに、前記物体領域特定手段により特定された物体領域を除く全ての領域についてはタイマーをリセットするタイマー処理ステップと、
前記動作領域のタイマー値に基づいて前記物体領域のタイマー値を修正するタイマー値伝搬ステップと、
前記タイマーの値が所定値に満たない所定領域を特定し、該所定領域を背景領域として認定する背景領域認定ステップと、
前記背景領域を前記一時的背景画像に反映させ、背景画像を更新する背景画像更新ステップと、
前記動作領域を含む前記物体領域を、更新された背景画像に合成しつつ出力画像を作成する出力画像作成ステップとを含む
ことを特徴とする画像処理方法。



An image processing method for processing by a computer,
An image acquisition step of acquiring images continuously photographed at a fixed point;
A predetermined area dividing step for dividing the predetermined area as a predetermined area for the image acquired by the image acquiring step;
An initial still image creating step of detecting a stationary object from the image acquired by the image acquiring step and creating a temporary still image by the stationary object;
An image recording step of recording a current image that is the latest image at the time of processing and an immediately preceding image acquired immediately before the current image among images that are continuously acquired;
An operation region specifying step of specifying an operation region by determining whether there is a change for each of the predetermined regions based on the current image and the immediately preceding image;
An object region specifying step of specifying an object region by determining a difference between the background image and the background image for each of the predetermined regions based on the background image and the current image;
A timer processing step for setting a timer for the motion area specified by the motion area specifying means, and for resetting the timer for all areas other than the object area specified by the object area specifying means;
A timer value propagation step of correcting the timer value of the object region based on the timer value of the motion region;
Identifying a predetermined area where the value of the timer is less than a predetermined value, and certifying the predetermined area as a background area; and
A background image update step of reflecting the background region in the temporary background image and updating the background image;
An image processing method comprising: an output image creation step of creating an output image while synthesizing the object region including the motion region with an updated background image.



JP2014252511A 2014-12-12 2014-12-12 Image processing system and image processing method used for the same Pending JP2016115093A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014252511A JP2016115093A (en) 2014-12-12 2014-12-12 Image processing system and image processing method used for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014252511A JP2016115093A (en) 2014-12-12 2014-12-12 Image processing system and image processing method used for the same

Publications (1)

Publication Number Publication Date
JP2016115093A true JP2016115093A (en) 2016-06-23

Family

ID=56142012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014252511A Pending JP2016115093A (en) 2014-12-12 2014-12-12 Image processing system and image processing method used for the same

Country Status (1)

Country Link
JP (1) JP2016115093A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7399055B2 (en) 2019-10-01 2023-12-15 アクシス アーベー Methods and devices for image analysis

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7399055B2 (en) 2019-10-01 2023-12-15 アクシス アーベー Methods and devices for image analysis

Similar Documents

Publication Publication Date Title
CN108062526B (en) Human body posture estimation method and mobile terminal
CN111242881B (en) Method, device, storage medium and electronic equipment for displaying special effects
JP6889417B2 (en) Image processing equipment and methods for stabilizing object boundaries in a series of images
CN110610453B (en) Image processing method and device and computer readable storage medium
CN106095262B (en) Method and apparatus for extracting static pattern from output of event-based sensor
CN104375797B (en) Information processing method and electronic equipment
TW201947452A (en) Data processing method, device and processing equipment for vehicle loss assessment and client
US9767612B2 (en) Method, system and apparatus for removing a marker projected in a scene
JP2015153046A (en) Image processor, image processing method and program
US10776943B2 (en) System and method for 3D association of detected objects
EP3822757A1 (en) Method and apparatus for setting background of ui control
JP2009500709A (en) Recognizing object movement patterns
JP2011076255A (en) Gesture recognizing device, gesture recognizing method and gesture recognizing program
CN108921070B (en) Image processing method, model training method and corresponding device
CN111192190A (en) Method and device for eliminating image watermark and electronic equipment
KR20150091280A (en) Method and apparatus for generating media signal
CN109981989B (en) Method and device for rendering image, electronic equipment and computer readable storage medium
JP6882723B2 (en) Automatic tracking and retention of articulated objects in a series of image frames
JP6229554B2 (en) Detection apparatus and detection method
JP2016115093A (en) Image processing system and image processing method used for the same
US10521653B2 (en) Image processing device, image processing method, and storage medium
JP2009099042A (en) Apparatus for operating object and method of identifying marker from digital image frame data
CN113703704B (en) Interface display method, head-mounted display device, and computer-readable medium
JP2015032261A (en) Display device and control method
JP6170696B2 (en) Image processing apparatus and image processing method