JP2005210324A - Image abstraction processing program and recording medium - Google Patents

Image abstraction processing program and recording medium Download PDF

Info

Publication number
JP2005210324A
JP2005210324A JP2004013631A JP2004013631A JP2005210324A JP 2005210324 A JP2005210324 A JP 2005210324A JP 2004013631 A JP2004013631 A JP 2004013631A JP 2004013631 A JP2004013631 A JP 2004013631A JP 2005210324 A JP2005210324 A JP 2005210324A
Authority
JP
Japan
Prior art keywords
image
person
background
abstracted
abstraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004013631A
Other languages
Japanese (ja)
Inventor
Minoru Fukazawa
実 深澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota InfoTechnology Center Co Ltd
Original Assignee
Toyota InfoTechnology Center Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota InfoTechnology Center Co Ltd filed Critical Toyota InfoTechnology Center Co Ltd
Priority to JP2004013631A priority Critical patent/JP2005210324A/en
Publication of JP2005210324A publication Critical patent/JP2005210324A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image abstraction processing program or the like, capable of transmitting a live video image to a display apparatus, such as a monitor, without violating the individual's right of portrait or the privacy of the individual in the live video image, modifying the live video image as if to be a video image photographed remotely or degrading the resolution of the live video image lower than a prescribed resolution. <P>SOLUTION: A computer applies characteristics extraction and area division to a photographed image with an imaging apparatus to distinguish a portrait image and a background image, applies a prescribed person abstraction processing to the distinguished portrait image to acquire an abstracted portrait image, applies a prescribed background abstraction processing to the background image to acquire the abstracted background image, and combines the acquired abstracted portrait image with the acquired abstracted background image. The image of a desired animation character can be used for the abstracted portrait image, and an image painted in the same color as the color of the background image can be used for the abstracted background image. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、撮像装置により撮像された画像に抽象化処理を施すための画像抽象化処理プログラム等に関する。   The present invention relates to an image abstraction processing program for performing abstraction processing on an image captured by an imaging apparatus.

従来、テレビジョン(TV)放送等により種々のライブ映像が撮像され、種々のモニター等の表示装置へ送られて生活情報として利用されている。ここで、生活情報とは例えば通勤等で通る道路における渋滞情報または天候情報等である。特に、今後カーナビゲーションシステムにおいて生活情報のライブ映像配信サービスの拡大が予想されており、カーナビゲーション装置のモニター等の表示装置へ生活情報のライブ映像が映し出される時代も近い将来の話と想定されている。TV放送等では非特許文献1に記載されているように所定の解像度等により撮像された画像が伝送されている。
長谷川伸著、「改訂画像工学」、第114頁−第116頁、平成6年12月20日改訂版第4刷発行、株式会社コロナ社。
Conventionally, various live images are captured by television (TV) broadcasting or the like, sent to various display devices such as monitors, and used as life information. Here, the life information is, for example, traffic jam information or weather information on a road passing by commuting. In particular, it is anticipated that the live video distribution service for living information will be expanded in the future in car navigation systems, and it is assumed that the live information live video will be projected on display devices such as monitors for car navigation devices in the near future. Yes. In TV broadcasts and the like, as described in Non-Patent Document 1, an image captured at a predetermined resolution is transmitted.
Shin Hasegawa, “Revised Image Engineering”, pages 114-116, 4th edition, revised on December 20, 1994, Corona Corporation.

上述のライブ映像中には通行中の人間または自動車等が撮影されている場合があり、このライブ映像をそのままモニター等の表示装置へ伝送してしまうと個人の肖像権またはプライバシー等を侵害するおそれがあった。このため、通行中の人間または自動車等を遠方から撮影した映像または上述の所定の解像度よりも低い解像度に落とした不鮮明な映像をモニター等の表示装置へ伝送していた。しかし、これらの映像をモニター等の表示装置で見た場合、遠方からの映像または不鮮明な映像であるため生活情報として利用することに支障があるという問題があった。   In the live video mentioned above, there are cases where humans or cars in traffic are photographed, and if this live video is directly transmitted to a display device such as a monitor, personal portrait rights or privacy may be infringed. was there. For this reason, an image obtained by photographing a passing person or a car from a distance or a blurred image reduced to a resolution lower than the predetermined resolution is transmitted to a display device such as a monitor. However, when these images are viewed on a display device such as a monitor, there is a problem in that they are hindered from being used as life information because they are images from a distant location or unclear images.

そこで、本発明の目的は、上記問題を解決するためになされたものであり、ライブ映像中の個人の肖像権またはプライバシー等を侵害することがなく、且つライブ映像を遠方から撮影した映像としたりまたは所定の解像度よりも低い解像度に落としたりすることなくモニター等の表示装置へ伝送することができる画像抽象化処理プログラム等を提供することにある。   Accordingly, an object of the present invention is to solve the above-described problems, and does not infringe on the individual's portrait rights or privacy in the live video, and the live video is taken from a distance. Another object of the present invention is to provide an image abstraction processing program or the like that can be transmitted to a display device such as a monitor without dropping to a resolution lower than a predetermined resolution.

この発明の画像抽象化処理プログラムは、撮像装置により撮像された画像に抽象化処理を施すための画像抽象化処理プログラムであって、コンピュータに、前記撮像装置により撮像された画像に対して特徴抽出及び領域分割を行なって、人物画像と背景画像とを識別させる画像認識ステップ、前記画像認識ステップにおいて識別された人物画像には所定の人物抽象化処理を施して抽象化された人物画像を取得させ、背景画像には所定の背景抽象化処理を施して抽象化された背景画像を取得させる抽象化処理ステップ、前記抽象化処理ステップで取得された抽象化された人物画像と抽象化された背景画像とを合成させる合成処理ステップを実行させるための画像抽象化処理プログラムである。   An image abstraction processing program of the present invention is an image abstraction processing program for performing abstraction processing on an image captured by an imaging device, and extracts a feature from an image captured by the imaging device on a computer And an image recognition step for performing region division to identify a person image and a background image, and performing a predetermined person abstraction process on the person image identified in the image recognition step to obtain an abstracted person image , An abstraction processing step for obtaining a background image abstracted by performing a predetermined background abstraction processing on the background image, an abstracted person image and an abstracted background image obtained in the abstraction processing step Is an image abstraction processing program for executing a synthesis processing step for synthesizing.

ここで、この発明の画像抽象化処理プログラムにおいて、前記抽象化処理ステップにおける人物画像処理は、前記画像認識ステップで特徴抽出された所定の特徴点の所定の特徴量と、予め人物画像特徴量記録部に記録された人物画像の所定の特徴点における所定の特徴量とを比較して、前記画像認識ステップで識別された人物画像の種別を特定する人物種別特定ステップと、前記画像認識ステップにおいて識別された人物画像を前記人物種別特定ステップで特定された種別に応じた抽象化された人物画像に置換する人物置換処理ステップとを備えることができる。   Here, in the image abstraction processing program according to the present invention, the person image processing in the abstraction processing step includes a predetermined feature amount of the predetermined feature point extracted in the image recognition step and a person image feature amount recording in advance. A person type identifying step for identifying a type of the person image identified in the image recognition step by comparing with a predetermined feature amount at a predetermined feature point of the person image recorded in the section, and identifying in the image recognition step And a person replacement processing step of replacing the person image thus identified with an abstracted person image corresponding to the type specified in the person type specifying step.

ここで、この発明の画像抽象化処理プログラムにおいて、前記抽象化処理ステップにおける背景抽象化処理は、前記画像認識ステップで特徴抽出された所定の特徴点の所定の特徴量と、予め背景画像特徴量記録部に記録された背景画像の所定の特徴点における所定の特徴量とを比較して、前記画像認識ステップで識別された背景画像の種別を特定する背景種別特定ステップと、前記画像認識ステップにおいて識別された背景画像を前記背景種別特定ステップで特定された種別に応じた抽象化された背景画像に置換する背景置換処理ステップとを備えることができる。   Here, in the image abstraction processing program of the present invention, the background abstraction processing in the abstraction processing step includes a predetermined feature amount of a predetermined feature point extracted in the image recognition step and a background image feature amount in advance. In a background type specifying step for comparing a predetermined feature amount at a predetermined feature point of a background image recorded in the recording unit and specifying a type of the background image identified in the image recognition step, and in the image recognition step A background replacement processing step of replacing the identified background image with an abstracted background image corresponding to the type specified in the background type specifying step.

ここで、この発明の記載の画像抽象化処理プログラムにおいて、前記抽象化された人物画像はアニメーション・キャラクタの画像であるものとすることができる。   Here, in the image abstraction processing program according to the present invention, the abstracted person image may be an animation character image.

ここで、この発明の画像抽象化処理プログラムにおいて、前記抽象化された背景画像は該背景画像と同色で塗りつぶされた画像であるものとすることができる。   Here, in the image abstraction processing program of the present invention, the abstracted background image can be an image painted in the same color as the background image.

この発明の記録媒体は、本発明のいずれかの画像抽象化処理プログラムを記録したコンピュータ読取り可能な記録媒体である。   The recording medium of the present invention is a computer-readable recording medium on which any of the image abstraction processing programs of the present invention is recorded.

この発明の記録媒体は、撮像装置により撮像された画像に抽象化処理を施した合成データと所定のタグ情報とを対応付けて保持するデータ構造であって、当該データ構造は、コンピュータに、前記撮像装置により撮像された画像に対して特徴抽出及び領域分割を行なって、人物画像と背景画像とを識別させる画像認識ステップと、前記画像認識ステップにおいて識別された人物画像には所定の人物抽象化処理を施して抽象化された人物画像を取得させ、背景画像には所定の背景抽象化処理を施して抽象化された背景画像を取得させる抽象化処理ステップと、前記抽象化処理ステップで取得された抽象化された人物画像と抽象化された背景画像とを合成させる合成処理ステップとを実行させることにより得られた合成データと所定のタグ情報であって人物画像または背景画像と関連したタグ情報とを対応付けて保持することを特徴とするデータ構造を記録したコンピュータ読取り可能な記録媒体である。   The recording medium of the present invention has a data structure that holds combined data obtained by performing an abstraction process on an image captured by an imaging device and predetermined tag information, and the data structure is An image recognition step for identifying a person image and a background image by performing feature extraction and area division on the image captured by the imaging device, and a predetermined person abstraction for the person image identified in the image recognition step An abstraction processing step for obtaining an abstracted person image by performing processing, and applying a predetermined background abstraction processing to the background image to obtain an abstracted background image, and obtained by the abstraction processing step. The synthesized data obtained by executing the synthesis processing step for synthesizing the abstracted person image and the abstracted background image with predetermined tag information A computer readable recording medium recording a data structure, characterized in that the holding in association with tag information associated with the personal image or background image I.

本発明の画像抽象化処理プログラムによれば、コンピュータに、撮像装置により撮像された画像に対して特徴抽出及び領域分割を行なって人物画像と背景画像とを識別させ、識別された人物画像には所定の人物抽象化処理を施して抽象化された人物画像を取得させ、背景画像には所定の背景抽象化処理を施して抽象化された背景画像を取得させ、取得された抽象化された人物画像と抽象化された背景画像とを合成させる。抽象化された人物画像としては所望のアニメーション・キャラクタの画像を用い、抽象化された背景画像としては当該背景画像をその色彩と同色で塗りつぶされた画像を用いる。この結果、ライブ映像中の個人の肖像権またはプライバシー等を侵害することがなく、且つライブ映像を遠方から撮影した映像としたりまたは所定の解像度よりも低い解像度に落としたりすることなくモニター等の表示装置へ伝送することができるという効果がある。   According to the image abstraction processing program of the present invention, a computer performs feature extraction and area division on an image captured by an imaging device to identify a person image and a background image. Perform a specified person abstraction process to obtain an abstracted person image, and apply a predetermined background abstraction process to the background image to obtain an abstracted background image. The image and the abstract background image are combined. An image of a desired animation / character is used as the abstracted person image, and an image obtained by painting the background image with the same color as the color is used as the abstracted background image. As a result, it is possible to display on a monitor or the like without infringing on the individual's portrait rights or privacy in the live video, and without making the live video shot from a distance or dropping it to a resolution lower than the predetermined resolution. There is an effect that it can be transmitted to the apparatus.

以下、各実施例について図面を参照して詳細に説明する。   Hereinafter, each embodiment will be described in detail with reference to the drawings.

図1は、本発明の実施例1における画像抽象化処理プログラムの処理の流れをフローチャートで示す。図1に示されるように、撮像装置(不図示)により撮像された画像に対して特徴抽出及び領域分割を行なって、人物画像と背景画像とを識別させる(画像認識ステップ。ステップS10)。ここで、撮像装置は例えば都市における道路および通行人等のライブ映像を撮像しているものとする。特徴抽出には従来技術におけるエッジ(edge)検出、画素の濃度勾配等を用いることができ、領域分割には従来技術における領域拡張法、統計的仮説検定法等を用いることができる。   FIG. 1 is a flowchart showing the processing flow of an image abstraction processing program according to the first embodiment of the present invention. As shown in FIG. 1, feature extraction and region segmentation are performed on an image captured by an imaging device (not shown) to identify a person image and a background image (image recognition step, step S10). Here, it is assumed that the imaging device captures live images of roads and passersby in a city, for example. For feature extraction, edge detection and pixel density gradient in the prior art can be used, and for area segmentation, the area expansion method and the statistical hypothesis test method in the prior art can be used.

次に、画像認識ステップ(ステップS10)において識別された人物画像には所定の人物抽象化処理(ステップS18、S20)を施して抽象化された人物画像を取得させ、背景画像には所定の背景抽象化処理(ステップS14、S16)を施して抽象化された背景画像を取得させる(抽象化処理ステップ。ステップS12)。   Next, the person image identified in the image recognition step (step S10) is subjected to a predetermined person abstraction process (steps S18 and S20) to obtain an abstracted person image, and the background image has a predetermined background. Abstraction processing (steps S14 and S16) is performed to obtain an abstracted background image (abstraction processing step, step S12).

上述の人物抽象化処理では、画像認識ステップ(ステップS10)で特徴抽出された所定の特徴点の所定の特徴量と、予め人物画像特徴量記録部10(後述)に記録された人物画像の所定の特徴点における所定の特徴量とを比較して、画像認識ステップ(ステップS10)で識別された人物画像の種別を特定する(人物種別特定ステップ。ステップS18)。図2は、人物画像特徴量記録部10の内容を例示する。図2に示されるように、人物画像特徴量記録部10は、人物画像における種々の特徴点P1(12)、P2(14)、...、Pn(16)等に対する各特徴量F11、F12、...、F1n等を有している。特徴点P1等としては、例えば人物の頭頂部、左右の眉部、左右の目部、鼻の頂上部、鼻の下部、耳の上部、耳の下部、顔の輪郭等を用いることができる。特徴量F11等としては、例えば各特徴点の2次元の位置座標または各特徴点が占める面積等を用いてもよい。画像認識ステップ(ステップS10)で特徴抽出された特徴点P1等の特徴量と、予め人物画像特徴量記録部10に記録された人物画像の特徴点P1等における特徴量F11等とを比較して、所定の許容範囲内で一致する特徴量が最も多い人物画像特徴量記録部10中の行に対応する人物種別18を、人物画像の種別として特定することができる。例えば、ある人物画像の特徴点P1ないしPnの特徴量が各々F11ないしF1nと所定の許容範囲内で一致した場合、当該人物画像の人物種別18は「A1(大人、男、年代Y1、体型S1等)」と特定される。人物種別18には他にも顔型等を含めてもよい。ここでA1は人物種別18を識別する種別コードである。   In the person abstraction process described above, a predetermined feature amount of the predetermined feature point extracted in the image recognition step (step S10) and a predetermined image of the person image recorded in advance in the person image feature amount recording unit 10 (described later). Is compared with a predetermined feature quantity at the feature point of the person, and the type of the person image identified in the image recognition step (step S10) is specified (person type specifying step; step S18). FIG. 2 illustrates the contents of the person image feature amount recording unit 10. As shown in FIG. 2, the person image feature amount recording unit 10 includes various feature points P1 (12), P2 (14),. . . , Pn (16), etc., feature amounts F11, F12,. . . , F1n and the like. As the feature point P1 or the like, for example, the top of the person, the left and right eyebrows, the left and right eyes, the top of the nose, the bottom of the nose, the top of the ear, the bottom of the ear, the contour of the face, and the like can be used. As the feature amount F11 or the like, for example, the two-dimensional position coordinates of each feature point or the area occupied by each feature point may be used. The feature quantity such as the feature point P1 extracted in the image recognition step (step S10) is compared with the feature quantity F11 etc. in the feature point P1 etc. of the person image recorded in the person image feature quantity recording unit 10 in advance. The person type 18 corresponding to the row in the person image feature amount recording unit 10 having the largest number of matching feature values within a predetermined allowable range can be specified as the person image type. For example, if the feature values of the feature points P1 to Pn of a certain person image coincide with F11 to F1n within a predetermined allowable range, the person type 18 of the person image is “A1 (adult, male, age Y1, body type S1”. Etc.) ”. The person type 18 may include a face type or the like. Here, A1 is a type code for identifying the person type 18.

続いて、画像認識ステップ(ステップS10)において識別された人物画像を人物種別特定ステップ(ステップS18)で特定された人物種別18に応じた抽象化された人物画像に置換する(人物置換処理ステップ。ステップS20)。抽象化された人物画像は、例えばアニメーション・キャラクタの画像とすることが好適である。具体的には種別コードA1中の顔型が丸顔、角顔または卵顔等に応じて所望のアニメーション・キャラクタの画像に置換すればよい。所望のアニメーション・キャラクタをコード化しておき、種別コードと対応付けて人物画像特徴量記録部10中に記録しておくこともできる。   Subsequently, the person image identified in the image recognition step (step S10) is replaced with an abstracted person image corresponding to the person type 18 specified in the person type specifying step (step S18) (person replacement processing step). Step S20). The abstracted person image is preferably an animation character image, for example. Specifically, the face type in the type code A1 may be replaced with an image of a desired animation character according to a round face, a square face, an egg face, or the like. It is also possible to code a desired animation character and record it in the person image feature amount recording unit 10 in association with the type code.

一方、上述の背景抽象化処理では、画像認識ステップ(ステップS10)で特徴抽出された所定の特徴点の所定の特徴量と、予め背景画像特徴量記録部20(後述)に記録された背景画像の所定の特徴点における所定の特徴量とを比較して、画像認識ステップ(ステップS10)で識別された背景画像の種別を特定する(背景種別特定ステップ。ステップS14)。図3は、背景画像特徴量記録部20の内容を例示する。図3に示されるように、背景画像特徴量記録部20は、背景画像における種々の特徴点Q1(22)、Q2(24)、...、Qn(26)等に対する各特徴量G11、G12、...、G1n等を有している。特徴点Q1等としては、例えば背景の縁部または中央部等を用いることができる。特徴量G11等としては、例えば各特徴点の2次元の位置座標、各特徴点が占める面積または色彩等を用いることができる。画像認識ステップ(ステップS10)で特徴抽出された特徴点Q1等の特徴量と、予め背景画像特徴量記録部20に記録された背景画像の特徴点Q1等における特徴量G11等とを比較して、所定の許容範囲内で一致する特徴量が最も多い背景画像特徴量記録部20中の行に対応する背景種別28を、背景画像の種別として特定することができる。例えば、ある背景画像の特徴点Q1ないしQnの特徴量が各々Gk1ないしGknと所定の許容範囲内で一致した場合、当該背景画像の背景種別28は「Bk(車)」と特定される。背景種別28には他の種別も含めてもよい。ここでBkは種別を識別する種別コードである。   On the other hand, in the background abstraction processing described above, the predetermined feature amount of the predetermined feature point extracted in the image recognition step (step S10) and the background image recorded in advance in the background image feature amount recording unit 20 (described later). Are compared with a predetermined feature amount at the predetermined feature point to specify the type of the background image identified in the image recognition step (step S10) (background type specifying step; step S14). FIG. 3 illustrates the contents of the background image feature amount recording unit 20. As illustrated in FIG. 3, the background image feature amount recording unit 20 includes various feature points Q1 (22), Q2 (24),. . . , Qn (26), etc., for each feature quantity G11, G12,. . . , G1n and the like. As the feature point Q1, etc., for example, the edge or center of the background can be used. As the feature amount G11 and the like, for example, the two-dimensional position coordinates of each feature point, the area or color occupied by each feature point, and the like can be used. The feature amount such as the feature point Q1 extracted in the image recognition step (step S10) is compared with the feature amount G11 or the like in the feature point Q1 or the like of the background image recorded in the background image feature amount recording unit 20 in advance. The background type 28 corresponding to the row in the background image feature value recording unit 20 having the largest number of matching feature values within a predetermined allowable range can be specified as the background image type. For example, when the feature amounts of the feature points Q1 to Qn of a certain background image coincide with Gk1 to Gkn within a predetermined allowable range, the background type 28 of the background image is specified as “Bk (car)”. The background type 28 may include other types. Here, Bk is a type code for identifying the type.

続いて、画像認識ステップ(ステップS10)において識別された背景画像を背景種別特定ステップ(ステップS14)で特定された背景種別28に応じた抽象化された背景画像に置換する(背景置換処理ステップ。ステップS16)。抽象化された背景画像は、例えば当該背景画像と同色で塗りつぶされた画像とすることが好適である。当該背景画像の色彩は背景画像特徴量記録部20中の特徴点Q1等の特徴量G11等と所定の許容範囲内で一致した色彩を用いればよい。具体的にはある背景画像が種別コードBk(車)と一致した場合、種別コードBk(車)の行における色彩を示す特徴点Q1等の特徴量G11等の色(白等)で塗りつぶされた画像に置換すればよい。   Subsequently, the background image identified in the image recognition step (step S10) is replaced with an abstracted background image corresponding to the background type 28 specified in the background type specifying step (step S14) (background replacement processing step. Step S16). The abstracted background image is preferably an image filled with the same color as the background image, for example. The color of the background image may be a color that matches the feature amount G11 such as the feature point Q1 in the background image feature amount recording unit 20 within a predetermined allowable range. Specifically, when a certain background image matches the type code Bk (car), it is filled with a color (white etc.) such as the feature amount G11 such as the feature point Q1 indicating the color in the row of the type code Bk (car). Replace with an image.

最後に、抽象化処理ステップ(ステップS14およびS16、またはステップS18およびS20)で取得された抽象化された人物画像と抽象化された背景画像とを合成させて合成データを得ることができる(合成処理ステップ。ステップS22)。   Finally, the abstracted person image acquired in the abstraction processing step (steps S14 and S16 or steps S18 and S20) and the abstracted background image can be combined to obtain composite data (composite data). Processing step, step S22).

以上より、本発明の実施例1によれば、コンピュータに、撮像装置により撮像された画像に対して特徴抽出及び領域分割を行なって人物画像と背景画像とを識別させ、識別された人物画像には所定の人物抽象化処理を施して抽象化された人物画像を取得させ、背景画像には所定の背景抽象化処理を施して抽象化された背景画像を取得させ、取得された抽象化された人物画像と抽象化された背景画像とを合成させることができる。抽象化された人物画像としては所望のアニメーション・キャラクタの画像を用いることができ、抽象化された背景画像としては当該背景画像をその色彩と同色で塗りつぶされた画像を用いることができる。このため、ライブ映像中の個人の肖像権またはプライバシー等を侵害することがなく、且つライブ映像を遠方から撮影した映像としたりまたは所定の解像度よりも低い解像度に落としたりすることなくモニター等の表示装置へ伝送することができる画像抽象化処理プログラム等を提供することができる。   As described above, according to the first embodiment of the present invention, the computer performs feature extraction and region segmentation on the image captured by the imaging device to identify the person image and the background image, and the identified person image Performs a predetermined person abstraction process to obtain an abstracted person image, and applies a predetermined background abstraction process to the background image to obtain an abstracted background image. The person image and the abstracted background image can be synthesized. An image of a desired animation / character can be used as the abstracted person image, and an image obtained by painting the background image with the same color as the color can be used as the abstracted background image. For this reason, it does not infringe individual portrait rights or privacy in live video, and displays on a monitor etc. without making the live video shot from a distance or dropping it to a resolution lower than the predetermined resolution An image abstraction processing program or the like that can be transmitted to the apparatus can be provided.

上述の実施例1における合成処理ステップ(ステップS22)で得られた合成データと所定のタグ情報とを対応付けたデータ構造をコンピュータ読取り可能な記録媒体に保持することができる。すなわち、当該データ構造は、コンピュータに、撮像装置により撮像された画像に対して特徴抽出及び領域分割を行なって、人物画像と背景画像とを識別させ、識別された人物画像には所定の人物抽象化処理を施して抽象化された人物画像を取得させ、背景画像には所定の背景抽象化処理を施して抽象化された背景画像を取得させ、取得された抽象化された人物画像と抽象化された背景画像とを合成させることにより得られた合成データと、人物画像または背景画像と関連した所定のタグ情報とを対応付けて保持するデータ構造とすることができる。所定のタグ情報としては、例えばXML(Extensible Markup Language)のタグを用いることができる。   A data structure in which the synthesized data obtained in the synthesizing process step (step S22) in the first embodiment is associated with predetermined tag information can be held in a computer-readable recording medium. That is, the data structure allows a computer to perform feature extraction and region segmentation on an image captured by an imaging device to identify a person image and a background image, and the identified person image has a predetermined person abstraction. Process to obtain an abstracted person image, apply a predetermined background abstraction process to the background image to obtain an abstracted background image, and obtain the abstracted person image and abstraction It is possible to have a data structure in which synthesized data obtained by synthesizing the background image and the predetermined tag information related to the person image or the background image are stored in association with each other. As the predetermined tag information, for example, an XML (Extensible Markup Language) tag can be used.

以上より、本発明の実施例2によれば、合成データと例えばXMLのタグとを対応付けたデータ構造をコンピュータ読取り可能な記録媒体に記録しておくことができる。この結果、上記記録媒体に記録されたデータ構造を上述の撮像装置側から伝送されたモニター等の表示装置側において、上記タグを利用することによりデータマイニングおよびフィルタリング操作が容易となるため、欲しい情報を容易に取捨選択することができる。さらに、上述の撮像装置側においても上記タグを同様に利用することにより配信の時間、場所および場合に応じて伝送する合成データの選択を行なうことが容易になる。   As described above, according to the second embodiment of the present invention, a data structure in which synthesized data is associated with, for example, an XML tag can be recorded on a computer-readable recording medium. As a result, data mining and filtering operations are facilitated by using the tag on the display device side such as a monitor transmitted from the imaging device side to the data structure recorded on the recording medium. Can be easily selected. Further, by using the tag in the same manner on the above-described imaging apparatus side, it becomes easy to select the composite data to be transmitted according to the delivery time, place and case.

図4は、上述した各実施例を実現するための本発明のコンピュータ・プログラムを実行する例えば撮像装置側のコンピュータの内部回路30を示すブロック図である。図4に示されるように、CPU31、ROM32、RAM33、画像制御部36、コントローラ37、入力制御部40および外部インタフェース(I/F)部44はバス46に接続されている。図4において、上述の本発明のコンピュータ・プログラムは、ハードディスク(HDD)38a等の読み書き可能な記録媒体、またはROM32若しくはCD−ROM38n等の読み取り可能な記録媒体(いずれも脱着可能な記録媒体を含む)に記録されている。ハードディスク(HDD)38aには実施例1における人物画像特徴量記録部10および背景画像特徴量記録部20が記録されている。さらに、実施例2における合成データと例えばXMLのタグとを対応付けたデータ構造を記録しておくことができる。本発明のコンピュータ・プログラムは、ROM32からバス46を介し、またはハードディスク(HDD)38a若しくはCD−ROM38n等の記録媒体からコントローラ37を経由してバス46を介しRAM33へロードされる。入力制御部40はマウス、キーボード等の入力操作部42と接続され入力制御等を行う。画像メモリであるVRAM35は撮像装置等の表示部34の少なくとも一画面分のデータ容量に相当する容量を有しており、画像制御部36はVRAM35のデータを画像データへ変換して表示部34へ送出する機能を有している。外部I/F部44は、本コンピュータが外部と通信する際の入出力インタフェース機能を有する。   FIG. 4 is a block diagram showing an internal circuit 30 of a computer on the imaging device side, for example, which executes the computer program of the present invention for realizing the above-described embodiments. As shown in FIG. 4, the CPU 31, ROM 32, RAM 33, image control unit 36, controller 37, input control unit 40 and external interface (I / F) unit 44 are connected to a bus 46. 4, the above-described computer program of the present invention includes a readable / writable recording medium such as a hard disk (HDD) 38a, or a readable recording medium such as a ROM 32 or a CD-ROM 38n (all of which are removable recording media). ) Is recorded. A person image feature amount recording unit 10 and a background image feature amount recording unit 20 according to the first embodiment are recorded on a hard disk (HDD) 38a. Furthermore, a data structure in which the composite data in the second embodiment is associated with, for example, an XML tag can be recorded. The computer program of the present invention is loaded into the RAM 33 from the ROM 32 via the bus 46 or from a recording medium such as a hard disk (HDD) 38a or CD-ROM 38n via the controller 37 via the bus 46. The input control unit 40 is connected to an input operation unit 42 such as a mouse and a keyboard to perform input control and the like. The VRAM 35 which is an image memory has a capacity corresponding to the data capacity of at least one screen of the display unit 34 such as an imaging device, and the image control unit 36 converts the data in the VRAM 35 into image data and sends it to the display unit 34. It has a function to send out. The external I / F unit 44 has an input / output interface function when the computer communicates with the outside.

CPU31が上述の本発明のコンピュータ・プログラムを実行することにより、本発明の目的を達成することができる。当該コンピュータ・プログラムは上述のようにハードディスク(HDD)38a等の読み書き可能な記録媒体、またはROM32若しくはCD−ROM38n等の読み取り可能な記録媒体(いずれも脱着可能な記録媒体を含む)の形態でコンピュータCPU31に供給することができ、当該コンピュータ・プログラムを記録したハードディスク(HDD)38a等の読み書き可能な記録媒体、またはROM32若しくはCD−ROM38n等の読み取り可能な記録媒体(いずれも脱着可能な記録媒体を含む)も同様に本発明を構成することになる。当該コンピュータ・プログラムを記録した記録媒体としては上述された記録媒体の他に、例えばメモリ・カード、メモリ・スティック、DVD、光ディスク、FD等を用いることができる。   The object of the present invention can be achieved by the CPU 31 executing the above-described computer program of the present invention. As described above, the computer program is a computer in the form of a readable / writable recording medium such as a hard disk (HDD) 38a or a readable recording medium such as a ROM 32 or a CD-ROM 38n (both including a removable recording medium). A readable / writable recording medium such as a hard disk (HDD) 38a that records the computer program, or a readable recording medium such as a ROM 32 or CD-ROM 38n (both are removable recording media). Including) also constitutes the present invention. As the recording medium on which the computer program is recorded, for example, a memory card, a memory stick, a DVD, an optical disk, an FD, or the like can be used in addition to the recording medium described above.

本発明の活用例として、TV放送におけるライブ映像中の画像を撮像器からカーナビゲーション装置のモニター等の表示装置へ伝送する場合に適用することができる。   As an application example of the present invention, the present invention can be applied to a case where an image in a live video in TV broadcasting is transmitted from an image pickup device to a display device such as a monitor of a car navigation device.

本発明の実施例1における画像抽象化処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image abstraction processing program in Example 1 of this invention. 人物画像特徴量記録部10の内容を例示する図である。3 is a diagram illustrating the contents of a person image feature amount recording unit 10. FIG. 背景画像特徴量記録部20の内容を例示する図である。FIG. 4 is a diagram illustrating the contents of a background image feature amount recording unit 20. 本発明のコンピュータ・プログラムを実行するコンピュータの内部回路30を示すブロック図である。It is a block diagram which shows the internal circuit 30 of the computer which performs the computer program of this invention.

符号の説明Explanation of symbols

10 人物画像特徴量記録部、 12,14,16,22,24,26 特徴点、 18 人物種別、 20 背景画像特徴量記録部、 28 背景種別、 30 内部回路、 31 CPU、 32 ROM、 33 RAM、 34 表示部、 35 VRAM、 36 画像制御部、 37 コントローラ、 38a ハードディスク(HDD)、 38n CD−ROM、 40 入力制御部、 42 入力操作部、 44 外部I/F部、 46 バス。   10 person image feature amount recording unit 12, 14, 16, 22, 24, 26 feature point, 18 person type, 20 background image feature amount recording unit, 28 background type, 30 internal circuit, 31 CPU, 32 ROM, 33 RAM 34 display unit, 35 VRAM, 36 image control unit, 37 controller, 38a hard disk (HDD), 38n CD-ROM, 40 input control unit, 42 input operation unit, 44 external I / F unit, 46 bus.

Claims (7)

撮像装置により撮像された画像に抽象化処理を施すための画像抽象化処理プログラムであって、コンピュータに、
前記撮像装置により撮像された画像に対して特徴抽出及び領域分割を行なって、人物画像と背景画像とを識別させる画像認識ステップ、
前記画像認識ステップにおいて識別された人物画像には所定の人物抽象化処理を施して抽象化された人物画像を取得させ、背景画像には所定の背景抽象化処理を施して抽象化された背景画像を取得させる抽象化処理ステップ、
前記抽象化処理ステップで取得された抽象化された人物画像と抽象化された背景画像とを合成させる合成処理ステップを実行させるための画像抽象化処理プログラム。
An image abstraction processing program for performing abstraction processing on an image captured by an imaging device,
An image recognition step of performing feature extraction and region segmentation on the image captured by the imaging device to identify a person image and a background image;
The person image identified in the image recognition step is subjected to a predetermined person abstraction process to obtain an abstracted person image, and the background image is subjected to a predetermined background abstraction process to be abstracted Abstraction processing step to get,
An image abstraction processing program for executing a synthesis processing step for synthesizing the abstracted person image acquired in the abstraction processing step and the abstracted background image.
請求項1記載の画像抽象化処理プログラムにおいて、前記抽象化処理ステップにおける人物画像処理は、
前記画像認識ステップで特徴抽出された所定の特徴点の所定の特徴量と、予め人物画像特徴量記録部に記録された人物画像の所定の特徴点における所定の特徴量とを比較して、前記画像認識ステップで識別された人物画像の種別を特定する人物種別特定ステップと、
前記画像認識ステップにおいて識別された人物画像を前記人物種別特定ステップで特定された種別に応じた抽象化された人物画像に置換する人物置換処理ステップとを備えたことを特徴とする画像抽象化処理プログラム。
The image abstraction processing program according to claim 1, wherein the person image processing in the abstraction processing step includes:
Comparing the predetermined feature amount of the predetermined feature point extracted in the image recognition step with the predetermined feature amount of the predetermined feature point of the person image recorded in the person image feature amount recording unit in advance, A person type specifying step for specifying the type of the person image identified in the image recognition step;
An image abstraction process comprising: a person replacement process step of replacing the person image identified in the image recognition step with an abstracted person image corresponding to the type specified in the person type specification step program.
請求項1記載の画像抽象化処理プログラムにおいて、前記抽象化処理ステップにおける背景抽象化処理は、
前記画像認識ステップで特徴抽出された所定の特徴点の所定の特徴量と、予め背景画像特徴量記録部に記録された背景画像の所定の特徴点における所定の特徴量とを比較して、前記画像認識ステップで識別された背景画像の種別を特定する背景種別特定ステップと、
前記画像認識ステップにおいて識別された背景画像を前記背景種別特定ステップで特定された種別に応じた抽象化された背景画像に置換する背景置換処理ステップとを備えたことを特徴とする画像抽象化処理プログラム。
The image abstraction processing program according to claim 1, wherein the background abstraction processing in the abstraction processing step includes:
Comparing a predetermined feature amount of the predetermined feature point extracted in the image recognition step with a predetermined feature amount of the predetermined feature point of the background image recorded in the background image feature amount recording unit in advance, A background type specifying step for specifying the type of the background image identified in the image recognition step;
An image abstraction process comprising: a background replacement process step of replacing the background image identified in the image recognition step with an abstracted background image corresponding to the type specified in the background type specifying step program.
請求項1ないし3のいずれかに記載の画像抽象化処理プログラムにおいて、前記抽象化された人物画像はアニメーション・キャラクタの画像であることを特徴とする画像抽象化処理プログラム。   4. The image abstraction processing program according to claim 1, wherein the abstracted person image is an image of an animation character. 請求項1ないし4のいずれかに記載の画像抽象化処理プログラムにおいて、前記抽象化された背景画像は該背景画像と同色で塗りつぶされた画像であることを特徴とする画像抽象化処理プログラム。   5. The image abstraction processing program according to claim 1, wherein the abstracted background image is an image painted in the same color as the background image. 請求項1ないし6のいずれかに記載の画像抽象化処理プログラムを記録したコンピュータ読取り可能な記録媒体。   A computer-readable recording medium on which the image abstraction processing program according to any one of claims 1 to 6 is recorded. 撮像装置により撮像された画像に抽象化処理を施した合成データと所定のタグ情報とを対応付けて保持するデータ構造であって、当該データ構造は、コンピュータに、
前記撮像装置により撮像された画像に対して特徴抽出及び領域分割を行なって、人物画像と背景画像とを識別させる画像認識ステップと、
前記画像認識ステップにおいて識別された人物画像には所定の人物抽象化処理を施して抽象化された人物画像を取得させ、背景画像には所定の背景抽象化処理を施して抽象化された背景画像を取得させる抽象化処理ステップと、
前記抽象化処理ステップで取得された抽象化された人物画像と抽象化された背景画像とを合成させる合成処理ステップとを実行させることにより得られた合成データと所定のタグ情報であって人物画像または背景画像と関連したタグ情報とを対応付けて保持することを特徴とするデータ構造を記録したコンピュータ読取り可能な記録媒体。

A data structure in which composite data obtained by performing an abstraction process on an image captured by an imaging device and predetermined tag information are associated with each other and held in a computer.
An image recognition step for performing feature extraction and area division on the image captured by the imaging device to identify a person image and a background image;
The person image identified in the image recognition step is subjected to a predetermined person abstraction process to obtain an abstracted person image, and the background image is subjected to a predetermined background abstraction process to be abstracted An abstraction processing step for obtaining
The synthesized image obtained by executing the synthesizing process step of synthesizing the abstracted person image acquired in the abstracting process step and the abstracted background image, and predetermined tag information, and the person image Alternatively, a computer-readable recording medium on which a data structure is recorded, wherein the tag information associated with the background image is held in association with each other.

JP2004013631A 2004-01-21 2004-01-21 Image abstraction processing program and recording medium Pending JP2005210324A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004013631A JP2005210324A (en) 2004-01-21 2004-01-21 Image abstraction processing program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004013631A JP2005210324A (en) 2004-01-21 2004-01-21 Image abstraction processing program and recording medium

Publications (1)

Publication Number Publication Date
JP2005210324A true JP2005210324A (en) 2005-08-04

Family

ID=34899629

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004013631A Pending JP2005210324A (en) 2004-01-21 2004-01-21 Image abstraction processing program and recording medium

Country Status (1)

Country Link
JP (1) JP2005210324A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101488220B (en) * 2009-01-05 2011-01-05 浙江大学 Real-time video and image abstraction method based on vision attention
JP2012209969A (en) * 2012-07-11 2012-10-25 Casio Comput Co Ltd Photographing apparatus, photographing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101488220B (en) * 2009-01-05 2011-01-05 浙江大学 Real-time video and image abstraction method based on vision attention
JP2012209969A (en) * 2012-07-11 2012-10-25 Casio Comput Co Ltd Photographing apparatus, photographing method, and program

Similar Documents

Publication Publication Date Title
CN109325933B (en) Method and device for recognizing copied image
US11100655B2 (en) Image processing apparatus and image processing method for hiding a specific object in a captured image
KR102167730B1 (en) Apparatus and method for masking a video
US20190199898A1 (en) Image capturing apparatus, image processing apparatus, control method, and storage medium
KR101984496B1 (en) Apparatus for and method of processing image based on object region
US20160330425A1 (en) Imaging apparatus and method of providing imaging information
US20120293537A1 (en) Data-generating device, data-generating method, data-generating program and recording medium
JP6579868B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
CN110147465A (en) Image processing method, device, equipment and medium
US10846820B2 (en) Generation device, identification information generation method, reproduction device, and image generation method
JP2018506198A (en) Method and apparatus for generating extrapolated image based on object detection
US11302045B2 (en) Image processing apparatus, image providing apparatus,control methods thereof, and medium
KR20200014694A (en) Image processing apparatus, image processing apparatus control method, and non-transitory computer-readable storage medium
WO2013170362A1 (en) Method and system of identifying non-distinctive images/objects in a digital video and tracking such images/objects using temporal and spatial queues
US9258458B2 (en) Displaying an image with an available effect applied
US11790583B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
KR20130075957A (en) Apparatus and method of reconstructing super-resoultion image
US10839552B2 (en) Image processing apparatus, tracking method, and program
KR101064946B1 (en) Object abstraction apparatus based multi image analysis and its method
JP2005210324A (en) Image abstraction processing program and recording medium
JP2007213183A (en) Device, method, and program for classifying digital image data
CN113191210B (en) Image processing method, device and equipment
WO2018154827A1 (en) Image processing device, image processing system and program
KR102543529B1 (en) Apparatus for processing image blurring and method thereof
CN114170470A (en) Sample generation method, device, equipment and storage medium