JP2008148183A - Image processor, image processing method, and image processing program - Google Patents

Image processor, image processing method, and image processing program Download PDF

Info

Publication number
JP2008148183A
JP2008148183A JP2006335372A JP2006335372A JP2008148183A JP 2008148183 A JP2008148183 A JP 2008148183A JP 2006335372 A JP2006335372 A JP 2006335372A JP 2006335372 A JP2006335372 A JP 2006335372A JP 2008148183 A JP2008148183 A JP 2008148183A
Authority
JP
Japan
Prior art keywords
image
digital
data
background
metadata
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006335372A
Other languages
Japanese (ja)
Inventor
Mitsuru Nakada
満 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006335372A priority Critical patent/JP2008148183A/en
Publication of JP2008148183A publication Critical patent/JP2008148183A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To apply metadata in accordance with background image in addition to figure image easily and correctly with respect to a digital image, to which the metadata is not given. <P>SOLUTION: Digital image is classified into a figure image and a background image (S203). Metadata in accordance with the figure image out of the metadata is applied to the digital image having the figure image, which is in agreement with the figure image, to which metadata was already given (S211). Metadata in accordance with the background out of the metadata is applied to the digital image with the background image in agreement with the background image, to which metadata was already given (S216). <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、前景画像を有するデジタル画像に、付帯データを付与する画像処理装置、画像処理方法、および画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program for adding auxiliary data to a digital image having a foreground image.

デジタルカメラなどの撮影装置を用いてデジタル画像を撮影する時、画像データ以外の多くの情報を表す付帯データ(例えば、画像の解像度、露出設定値、画像の圧縮の程度など)を、所定のファイルフォーマット(例えば「Exif(登録商標)」)に従って付与することが行われている。これらの付帯データはメタデータとも呼ばれている。このようにデジタル画像にメタデータを付与することによって、多くのデジタル画像の中から、付与したメタデータに基づいて、特定のデジタル画像を容易に抽出することができるようにしている。   When a digital image is taken using a photographing device such as a digital camera, incidental data representing a large amount of information other than image data (eg, image resolution, exposure setting value, degree of image compression, etc.) is stored in a predetermined file. The assignment is performed according to a format (for example, “Exif (registered trademark)”). These incidental data are also called metadata. By assigning metadata to the digital image in this way, a specific digital image can be easily extracted from many digital images based on the assigned metadata.

さらに、このようなメタデータとして、デジタル画像が撮られた場所および撮影方向のデータや、被写体に応じた情報(人物名や風景名)のデータなど、撮影者が所望するメタデータなどを付与できるようになってきている。従って、撮影されたデジタル画像には、例えば被写体における前景画像が人物であればメタデータとして「人物名」が、また前景画像以外の背景画像についてはメタデータとして「背景に写っている建物名」や「撮影場所」が、それぞれデジタル画像を特定するメタデータとして付与されることが一般的に行われるようになってきた。   Further, as such metadata, metadata desired by the photographer, such as data on the location and shooting direction where the digital image was taken, and data (person name or landscape name) according to the subject can be added. It has become like this. Therefore, in the photographed digital image, for example, if the foreground image in the subject is a person, “person name” is used as metadata, and for background images other than the foreground image, “building name in the background” is used as metadata. And “photographing location” are generally given as metadata for identifying digital images.

一方、例えば所謂フィルムカメラと称する撮影装置で、撮影者が以前より撮り貯めたスチール写真が多く存在している。このようなスチール写真は、一般的に家族など人物を写した撮影者にとって大切な写真が多い。このため、撮影者は、家族が写ったスチール写真を、スキャナなどといった入力装置を用いてデジタル画像に変換し、変換したデジタル画像をCD−ROMなどの所定の記録媒体に保存することが行われるようになってきた。スチール写真は、フィルム表面の銀塩が劣化し、撮影画像が退色して観賞できなくなってしまうためである。   On the other hand, for example, there are many still pictures that have been taken and stored by a photographer with a photographing apparatus called a so-called film camera. Such still photographs are generally important for photographers who photograph people such as family members. For this reason, a photographer converts a still picture of a family member into a digital image using an input device such as a scanner, and stores the converted digital image in a predetermined recording medium such as a CD-ROM. It has become like this. The still picture is because the silver salt on the film surface deteriorates and the photographed image fades and cannot be viewed.

このようなスチール写真には、基本的にメタデータは付与されていないので、スチール写真を変換したデジタル画像には、基本的にメタデータは存在しないことになる。従って、例えばCD−ROMなどの記録媒体に保存された多くのデジタル画像から、スチール写真を変換したデジタル画像を容易に抽出できるようにするためには、スチール写真を変換したデジタル画像にメタデータを付与しておく必要がある。   Since such a still picture basically has no metadata, the digital image obtained by converting the still picture basically has no metadata. Therefore, in order to easily extract a digital image obtained by converting a still photo from many digital images stored on a recording medium such as a CD-ROM, metadata is added to the digital image converted from the still photo. It is necessary to grant.

ところで、メタデータが付与されていないデジタル画像に対して、メタデータを付与する作業は、作業者が、デジタル画像の画像内容を確認しながら、所定の入力手段を用いて適切なデータを入力するという大変面倒な作業になる。また、このような付与作業において、例えば被写体の人物の名前を忘れ、人物名をメタデータとして入力することができない場合は、付与作業自体ができないことにもなる。そこで、このように、メタデータが付与されていないデジタル画像について、メタデータを自動的に付与するための方法が、特許文献1に提案されている。特許文献1には、取り込んだ画像内の人物の名前をその画像のメタデータに追加する技術が開示されている。   By the way, the work of assigning metadata to a digital image to which no metadata is attached is performed by an operator inputting appropriate data using a predetermined input means while confirming the image content of the digital image. It becomes a very troublesome work. In addition, in such an assignment operation, for example, if the name of the subject person is forgotten and the person name cannot be input as metadata, the assignment operation itself cannot be performed. Thus, Patent Document 1 proposes a method for automatically assigning metadata to a digital image to which metadata is not provided. Patent Document 1 discloses a technique for adding the name of a person in a captured image to the metadata of the image.

特開2004−62868号公報JP 2004-62868 A

しかしながら、特許文献1に開示された技術は、取り込んだ画像内の顔と一致した既知の顔の人物名をメタデータとして追加するものであり、前景画像となる人物画像を除く背景画像に応じたメタデータ(例えば、風景名)については、その付与方法について何ら技術開示がなされていない。従って、人物画像についてはメタデータを自動的に付与することができるものの、背景画像については前述したような付与作業を行う必要があり、容易にメタデータを付与することができないという課題がある。   However, the technique disclosed in Patent Document 1 adds a person name of a known face that matches the face in the captured image as metadata, and corresponds to the background image excluding the person image that becomes the foreground image. As for metadata (for example, scenery name), no technical disclosure is made regarding the method of giving the metadata. Therefore, although it is possible to automatically assign metadata for a person image, it is necessary to perform the above-described assignment operation for a background image, and there is a problem that metadata cannot be easily assigned.

本発明はこのような課題に鑑みてなされたもので、例えば人物画像といった前景画像を有するデジタル画像に、付帯データを自動的に付与する画像処理装置、画像処理方法、および画像処理プログラムを提供することを目的とする。これによって、メタデータが付与されていないデジタル画像について、前景画像に加えて背景画像に応じたメタデータを容易に且つ正しく付与できるようにするものである。   The present invention has been made in view of such a problem, and provides an image processing apparatus, an image processing method, and an image processing program that automatically add auxiliary data to a digital image having a foreground image such as a human image, for example. For the purpose. This makes it possible to easily and correctly assign metadata corresponding to the background image in addition to the foreground image, for a digital image to which no metadata is assigned.

上記目的を達成する本発明の画像処理装置は、前景画像を有するデジタル画像に、付帯データを付与する画像処理装置であって、前記付帯データが付与されている付帯データ有デジタル画像を記憶する記憶部と、前記付帯データが付与されていない付帯データ無デジタル画像を取得する取得部と、前記付帯データ有デジタル画像を、前記前景画像と当該前景画像以外の背景画像とに区分する第1の画像区分部と、前記付帯データ無デジタル画像を、前記前景画像と当該前景画像以外の背景画像とに区分する第2の画像区分部と、前記第1の画像区分部が区分した背景画像と、前記第2の画像区分部が区分した背景画像とが、一致するか否かを判定する一致判定部と、前記一致判定部が一致すると判定した前記背景画像を含む付帯データ有デジタル画像に付与され、前記背景画像に応じた前記付帯データを、前記付帯データ無デジタル画像に付与する付帯データ付与部と、を備えたことを要旨とする。   An image processing apparatus according to the present invention that achieves the above object is an image processing apparatus that adds auxiliary data to a digital image having a foreground image, and stores a digital image with auxiliary data to which the auxiliary data is added. A first image that divides the digital image with ancillary data into a foreground image and a background image other than the foreground image. A classification unit, a second image segmenting unit that classifies the digital data without incidental data into the foreground image and a background image other than the foreground image, a background image segmented by the first image segmenting unit, and A coincidence determination unit that determines whether or not the background image segmented by the second image segmentation unit matches, and a digital data with ancillary data that includes the background image that is determined to be coincident by the match determination unit Issued to Le image, the supplementary data corresponding to the background image, and gist that and a supplementary data providing unit to be applied to the auxiliary data-free digital image.

この構成によれば、デジタル画像を前景画像と背景画像とに区分する。そして、メタデータが既に付与されている背景画像と一致する背景画像を有するデジタル画像に、そのメタデータのうち背景に応じたメタデータを付与する。   According to this configuration, the digital image is divided into a foreground image and a background image. Then, the metadata corresponding to the background among the metadata is assigned to the digital image having the background image that matches the background image to which the metadata has already been assigned.

従って、デジタル画像を前景画像と背景画像とに区分してメタデータを付与するので、それぞれの画像に最も適したメタデータが自動的に付与される確率が高くなる。また、デジタル画像を前景画像と背景画像とに区分するので、後述する背景画像の一致判定処理において、前景画像が背景画像に与える影響を排除することができ、一致判定の精度が高くなることが期待できる。   Therefore, since the digital image is divided into a foreground image and a background image and metadata is given, the probability that the most suitable metadata is automatically given to each image is increased. Further, since the digital image is divided into the foreground image and the background image, the influence of the foreground image on the background image can be eliminated in the background image match determination process described later, and the accuracy of the match determination can be increased. I can expect.

ここで、前記前景画像は人物画像であることとしてもよい。   Here, the foreground image may be a person image.

人物画像は、一般にデジタル画像の画面全体領域に対して写っている画像領域が比較的大きい場合が多く存在する。従って、前景画像を人物画像として区分することによって、区分された背景画像についての一致判定の精度が高くなることが期待できる。従って、背景画像に応じたメタデータが、正しく付与されることが期待できる。   In general, there are many cases where a person image has a relatively large image area shown in the entire screen area of a digital image. Therefore, it can be expected that by dividing the foreground image as a human image, the accuracy of matching determination for the divided background image is increased. Therefore, it can be expected that metadata corresponding to the background image is correctly given.

また、前記第1の画像区分部または前記第2の画像区分部は、前記人物画像を有するデジタル画像から顔画像を抽出し、前記抽出された顔画像領域について、顔の大きさに応じて予め定められた画像領域を前記人物画像として区分することとしてもよい。   In addition, the first image segmenting unit or the second image segmenting unit extracts a face image from the digital image having the person image, and the extracted face image region is preliminarily set according to the size of the face. The determined image area may be divided as the person image.

こうすれば、顔の大きさに応じて予め定められた画像領域を人物画像として区分するので、背景画像の領域と人物画像の領域とを容易に区分することができる。従って、画像の一致判定処理において、人物画像の区分に関する処理負荷が軽減される。   In this way, since the image area determined in advance according to the size of the face is divided as a person image, the background image area and the person image area can be easily divided. Therefore, in the image matching determination process, the processing load related to the classification of person images is reduced.

本発明を、画像処理方法として捉えることもできる。すなわち、前景画像を有するデジタル画像に、付帯データを付与する画像処理方法であって、前記付帯データが付与されている付帯データ有デジタル画像を記憶する記憶工程と、前記付帯データが付与されていない付帯データ無デジタル画像を取得する取得工程と、前記付帯データ有デジタル画像を、前記前景画像と当該前景画像以外の背景画像とに区分する第1の画像区分工程と、前記付帯データ無デジタル画像を、前記前景画像と当該前景画像以外の背景画像とに区分する第2の画像区分工程と、前記第1の画像区分工程が区分した背景画像と、前記第2の画像区分工程が区分した背景画像とが、一致するか否かを判定する一致判定工程と、前記一致判定工程が一致すると判定した前記背景画像を含む付帯データ有デジタル画像に付与され、前記背景画像に応じた前記付帯データを、前記付帯データ無デジタル画像に付与する付帯データ付与工程と、を備えたことを要旨とする。   The present invention can also be understood as an image processing method. That is, an image processing method for adding auxiliary data to a digital image having a foreground image, the storing step storing the digital image with auxiliary data to which the auxiliary data is added, and the auxiliary data not being added An acquisition step of acquiring a digital image without incidental data, a first image classification step of dividing the digital image with auxiliary data into a foreground image and a background image other than the foreground image, and the digital image without incidental data A second image segmentation step of segmenting the foreground image into a background image other than the foreground image, a background image segmented by the first image segmentation step, and a background image segmented by the second image segmentation step And a match determination step for determining whether or not they match, and a digital image with accompanying data including the background image determined to match the match determination step. , The supplementary data corresponding to the background image, and summarized in that with a, and ancillary data providing step of providing the supplementary data free digital image.

本発明の画像処理方法によれば、上述した本発明の画像処理装置と同様の作用効果を得ることができる。なお、この画像処理方法は、上述した種々の態様を有する画像処理装置において実行してもよいし、他の態様を有する画像処理装置において実行してもよい。   According to the image processing method of the present invention, the same operational effects as those of the above-described image processing apparatus of the present invention can be obtained. This image processing method may be executed in an image processing apparatus having the various aspects described above, or may be executed in an image processing apparatus having other aspects.

さらに、本発明をコンピュータプログラムとして捉えることもできる。すなわち、前景画像を有するデジタル画像に、付帯データを付与する画像処理プログラムであって、前記付帯データが付与されている付帯データ有デジタル画像を記憶する記憶機能と、前記付帯データが付与されていない付帯データ無デジタル画像を取得する取得機能と、前記付帯データ有デジタル画像を、前記前景画像と当該前景画像以外の背景画像とに区分する第1の画像区分機能と、前記付帯データ無デジタル画像を、前記前景画像と当該前景画像以外の背景画像とに区分する第2の画像区分機能と、前記第1の画像区分機能が区分した背景画像と、前記第2の画像区分機能が区分した背景画像とが、一致するか否かを判定する一致判定機能と、前記一致判定機能が一致すると判定した前記背景画像を含む付帯データ有デジタル画像に付与され、前記背景画像に応じた前記付帯データを、前記付帯データ無デジタル画像に付与する付帯データ付与機能と、をコンピュータに実現させることを要旨とする。   Furthermore, the present invention can be understood as a computer program. That is, an image processing program for adding auxiliary data to a digital image having a foreground image, the storage function storing the digital image with auxiliary data to which the auxiliary data is added, and the auxiliary data not being added An acquisition function for acquiring a digital image without incidental data, a first image classification function for dividing the digital image with incidental data into a foreground image and a background image other than the foreground image, and the digital image without incidental data. A second image segmentation function for segmenting the foreground image into a background image other than the foreground image, a background image segmented by the first image segmentation function, and a background image segmented by the second image segmentation function And a coincidence determination function for determining whether or not they match, and a digital image with ancillary data including the background image determined to match the match determination function Is given, the auxiliary data corresponding to the background image, the gist incidental and data providing function, that is realized in a computer to be applied to the auxiliary data-free digital image.

このプログラムが所定のオペレーションシステム上で実行されることによって、上述した画像処理方法が実行され、同じく上述した本発明の画像処理装置と同様の作用効果を得ることができる。このプログラムは、コンピュータが読み取り可能な記録媒体に記録されていてもよいし、インターネットなどの伝送媒体を介してコンピュータに授受されるものでもよい。   By executing this program on a predetermined operation system, the above-described image processing method is executed, and the same operational effects as those of the above-described image processing apparatus of the present invention can be obtained. This program may be recorded on a computer-readable recording medium, or may be transferred to the computer via a transmission medium such as the Internet.

次に、本発明の実施の形態を実施例に基づいて説明する。図1は本発明の一実施例としての画像処理装置100を示す構成図である。本実施例の画像処理装置100は、基本的に、所定のオペレーティングシステムの下で、所定のアプリケーションプログラムを実行するパーソナルコンピュータである。こうしたコンピュータとしては、本実施例のような汎用のパーソナルコンピュータはもとより、サーバや大型コンピュータなどアプリケーションプログラムが動作するコンピュータであれば、いずれのコンピュータでも用いることができる。   Next, embodiments of the present invention will be described based on examples. FIG. 1 is a block diagram showing an image processing apparatus 100 as an embodiment of the present invention. The image processing apparatus 100 according to the present embodiment is basically a personal computer that executes a predetermined application program under a predetermined operating system. As such a computer, not only a general-purpose personal computer as in this embodiment, but also any computer such as a server or a large computer that can run application programs can be used.

このパーソナルコンピュータには、動画像や静止画像などのデジタル画像を供給するための供給機器としてのデジタルビデオカメラ140、CD−ROM(DVD−ROM)150、デジタルカメラ160、スキャナ170が接続されている。また、パーソナルコンピュータを操作するユーザー(以降、単に「ユーザー」と呼ぶ)が、必要な操作入力を行うための入力機器としてのキーボード131およびマウス132が接続されている。また、画像処理に際して必要な画像や情報を表示するための表示機器としてのモニター130が接続されている。なお、デジタル画像の供給機器としては、図1に示したものの他に、USBメモリやカード型のメモリなどが接続されてもよい。   Connected to this personal computer are a digital video camera 140, a CD-ROM (DVD-ROM) 150, a digital camera 160, and a scanner 170 as supply devices for supplying digital images such as moving images and still images. . In addition, a keyboard 131 and a mouse 132 are connected as input devices for a user operating the personal computer (hereinafter simply referred to as “user”) to perform necessary operation input. A monitor 130 is connected as a display device for displaying images and information necessary for image processing. As a digital image supply device, a USB memory or a card-type memory may be connected in addition to the one shown in FIG.

パーソナルコンピュータは、画像処理のための演算処理を実行するCPU110と、その演算処理プログラムなどを記憶するROM111と、デジタル画像を構成する画素の画素データを一時的に記録して保存するRAM112と、画像処理のためのアプリケーションソフトや供給機器から供給されたデジタル画像を格納するハードディスク(HD)113と、各供給機器との間のインターフェイスを司るI/F120と、各入力機器および表示機器との間のインターフェイスを司るI/F121とを備えている。それらは、バスライン115を介して必要なデータが授受されるように結線されている。   The personal computer includes a CPU 110 that executes arithmetic processing for image processing, a ROM 111 that stores the arithmetic processing program and the like, a RAM 112 that temporarily records and stores pixel data of pixels constituting a digital image, and an image A hard disk (HD) 113 that stores application software for processing and a digital image supplied from a supply device, an I / F 120 that controls an interface with each supply device, and each input device and display device And an I / F 121 that controls the interface. They are wired so that necessary data is exchanged via the bus line 115.

従って、CPU110が、ROM111に格納された演算処理プログラムやハードディスク113に格納されたアプリケーションソフトを読み出して実行することによって、記憶部100a、取得部100b、第1の画像区分部100c、第2の画像区分部100d、第1の一致判定部100e、第2の一致判定部100f、第1のメタデータ付与部100g、第2のメタデータ付与部100hとして機能する。各部は、主として以下の処理を司る。   Accordingly, the CPU 110 reads out and executes the arithmetic processing program stored in the ROM 111 and the application software stored in the hard disk 113, whereby the storage unit 100a, the acquisition unit 100b, the first image classification unit 100c, and the second image. It functions as a sorting unit 100d, a first match determination unit 100e, a second match determination unit 100f, a first metadata grant unit 100g, and a second metadata grant unit 100h. Each unit mainly performs the following processing.

記憶部100aは、I/F120を介して各供給機器から供給される付帯データ(以降、メタデータ)が付与されているメタデータ有デジタル画像の画像データを、付与されているメタデータとともにハードディスク113に格納して記憶する。取得部100bは、供給機器(例えばスキャナ)から供給されたメタデータが付与されていないメタデータ無デジタル画像を、RAM112の所定の記録エリアに記録して取得する。第1の画像区分部100cは、ハードディスク113に格納されたメタデータ有デジタル画像を、前景画像としての人物画像と背景画像とに区分する。第2の画像区分部100dは、RAM112に記録されたメタデータ無デジタル画像を、前景画像としての人物画像と背景画像とに区分する。第1の一致判定部100eは、区分されたメタデータ有デジタル画像の人物画像と、メタデータ無デジタル画像の人物画像とを比較し、2つの画像が一致するか否かを判定する。第2の一致判定部100fは、区分されたメタデータ有デジタル画像の背景画像と、メタデータ無デジタル画像の背景画像とを比較し、2つの画像が一致するか否かを判定する。第1のメタデータ付与部100gは、一致した人物画像が含まれるメタデータ有デジタル画像に付与されているメタデータのうち人物に応じたメタデータを、メタデータ無デジタル画像のメタデータとして付与する。第2のメタデータ付与部100hは、一致した背景画像が含まれるメタデータ有デジタル画像に付与されているメタデータのうち、背景に応じたメタデータを、メタデータ無デジタル画像のメタデータとして付与する。   The storage unit 100a stores image data of a digital image with metadata to which auxiliary data (hereinafter referred to as metadata) supplied from each supply device via the I / F 120 is added together with the assigned metadata. Store in memory. The acquisition unit 100b acquires a digital non-metadata image supplied with metadata supplied from a supply device (for example, a scanner) in a predetermined recording area of the RAM 112 and acquired. The first image classification unit 100c classifies the digital image with metadata stored in the hard disk 113 into a person image and a background image as a foreground image. The second image classification unit 100d classifies the digital image without metadata recorded in the RAM 112 into a human image and a background image as a foreground image. The first coincidence determination unit 100e compares the person image of the divided digital image with metadata and the person image of the digital image without metadata to determine whether or not the two images match. The second match determination unit 100f compares the background image of the divided digital image with metadata and the background image of the digital image without metadata to determine whether the two images match. The first metadata assigning unit 100g assigns metadata corresponding to a person among metadata attached to a digital image with metadata including a matched person image as metadata of the digital image without metadata. . The second metadata assigning unit 100h assigns metadata according to the background as metadata of the non-metadata digital image among the metadata assigned to the digital image with metadata including the matched background image. To do.

次に、以上の機能構成部を有する画像処理装置100が行う画像処理について、図2のフローチャートに従って説明する。   Next, image processing performed by the image processing apparatus 100 having the above-described functional configuration unit will be described with reference to the flowchart of FIG.

この処理が開始されると、まずステップS201にて、既にメタデータが付与されている複数のメタデータ有デジタル画像を記憶する処理を行う。CPU110は、I/F120を介して各供給機器から供給されるデジタル画像を、メタデータとともにハードディスク113に格納する。   When this process is started, first, in step S201, a process of storing a plurality of digital images with metadata to which metadata has already been assigned is performed. CPU110 stores the digital image supplied from each supply apparatus via I / F120 in the hard disk 113 with metadata.

次に、ステップS202にて、メタデータが付与されていないメタデータ無デジタル画像を取得する処理を行う。本実施例では、ユーザーがスキャナ170(図1)によってスチール写真をデジタル画像に変換するものとする。従って、CPU110は、I/F120を介してスキャナ170から供給されるスチール写真を変換したデジタル画像について、その画像データをRAM112に記録することによって取得する。   Next, in step S202, processing for acquiring a digital image without metadata to which metadata is not assigned is performed. In this embodiment, it is assumed that the user converts a still photo into a digital image by the scanner 170 (FIG. 1). Therefore, the CPU 110 acquires the digital image obtained by converting the still picture supplied from the scanner 170 via the I / F 120 by recording the image data in the RAM 112.

図3(a)に、スキャナ170から供給されるスチール写真を変換したデジタル画像の一例を示す。このデジタル画像は、前述したようにメタデータ無デジタル画像であり、山を背景にして写した人物画像である。本実施例は、このデジタル画像に付与すべきメタデータとして、人物に応じたメタデータ(例えば、人物名)と背景に応じたメタデータ(例えば、背景名)とを、既にメタデータが付与されているメタデータ有デジタル画像から取得して付与しようというものである。   FIG. 3A shows an example of a digital image obtained by converting a still photograph supplied from the scanner 170. As described above, this digital image is a digital image without metadata, and is a person image taken with a mountain as a background. In this embodiment, as metadata to be added to the digital image, metadata corresponding to a person (for example, a person name) and metadata corresponding to a background (for example, a background name) are already added. It is intended to obtain and add from a digital image with metadata.

次に、ステップS203にて、メタデータ無デジタル画像を人物画像と背景画像に区分する処理を行う。この処理によって、図3(b)に示したように、背景画像が存在しない人物画像と、図3(c)に示したように、人物画像(図中、破線)が切り取られた背景画像とに区分される。   Next, in step S203, processing for dividing the digital image without metadata into a human image and a background image is performed. By this processing, as shown in FIG. 3B, a person image without a background image and a background image from which a person image (broken line in the figure) is cut out as shown in FIG. It is divided into.

ところで、本実施例では、デジタル画像から人物画像の抽出処理を行うことによって人物画像と背景画像とを区分する。CPU110は、ハードディスク113に格納された人物画像の抽出処理のためのアプリケーションソフトを読み出し、所定の処理を行って人物画像を抽出する。例えば、肌色検出処理によって顔画像を検出し、領域分割処理によって人物の身体に相当する画像領域を探索し、エッジ抽出処理によって身体と背景画像の境界を探索する。また、人物画像の抽出処理として、これらの処理技術の他に、鼻孔を検出して顔画像を検出したりする技術など既に多くの処理技術が開示されており、本実施例では、これらの処理技術を用いて人物画像を抽出するものとする。   By the way, in this embodiment, the person image is extracted from the digital image, and the person image and the background image are classified. The CPU 110 reads application software for the person image extraction process stored in the hard disk 113 and performs a predetermined process to extract the person image. For example, a face image is detected by skin color detection processing, an image region corresponding to a person's body is searched by region division processing, and a boundary between the body and the background image is searched by edge extraction processing. In addition to these processing techniques, many processing techniques such as a technique for detecting a nostril and detecting a face image have already been disclosed as person image extraction processing. In this embodiment, these processing techniques are disclosed. It is assumed that a person image is extracted using a technique.

次に、ステップS205にて、メタデータ有デジタル画像の1つを読み出す処理を行う。CPU110はハードディスク113に格納されたメタデータ有デジタル画像を所定の順序(例えば、撮影日時の古い方から時系列順)で1つ読み出す。そして、ステップS206にて、メタデータ有デジタル画像を人物画像と背景画像に区分する処理を行う。   Next, in step S205, a process of reading one of the digital images with metadata is performed. The CPU 110 reads one digital image with metadata stored in the hard disk 113 in a predetermined order (for example, in chronological order from the oldest shooting date / time). In step S206, the digital image with metadata is divided into a person image and a background image.

ステップS205で読み出したメタデータ有デジタル画像の一例を図4(a)に示す。このデジタル画像は、「△ロッジ」を背景にして写した人物画像である。そして、このデジタル画像には、メタデータとして、写っている人物名「太郎」と、背景名「△ロッジ」が付与されているものとする。   An example of the digital image with metadata read out in step S205 is shown in FIG. This digital image is a human image taken with “Δ lodge” in the background. Then, it is assumed that the person name “Taro” and the background name “Δ Lodge” are given to the digital image as metadata.

このメタデータ有デジタル画像を、ステップS206にて、人物画像と背景画像に区分する処理を行うことによって、図4(b)に示したように背景画像が存在しない人物画像と、図4(c)に示したように人物画像(図中、破線)が切り取られた背景画像とに区分される。人物画像と背景画像との区分方法は、前述したステップS203にて説明した方法と同様に行う。従って、ここでは説明を省略する。   In step S206, the digital image with metadata is divided into a person image and a background image, whereby a person image having no background image as shown in FIG. ), The person image (broken line in the figure) is divided into the cut-out background image. The method for classifying the person image and the background image is performed in the same manner as the method described in step S203 described above. Therefore, the description is omitted here.

次に、ステップS207にて、人物画像同士及び背景画像同士を比較する処理を行う。本実施例では、画像のパターンと画像データのヒストグラムを用いることとし、人物画像同士の比較を画像データのパターンマッチングによって行い、背景画像同士の比較を画像データのヒストグラムの比較によって行うものとする。なお、パターンマッチングやヒストグラムは、画像処理技術において周知の処理技術であるので、これらの処理についての説明は省略する。   Next, in step S207, a process for comparing person images and background images is performed. In this embodiment, image patterns and image data histograms are used, human images are compared by image data pattern matching, and background images are compared by image data histogram comparison. Note that pattern matching and histograms are well-known processing techniques in the image processing technique, and thus descriptions of these processes are omitted.

ここで、人物画像同士の比較処理において、本実施例では、検出された顔画像についてパターンマッチングを行うものとする。CPU110は、人物画像のうち肌色の画像領域を抽出し、抽出した画像領域を顔画像としてパターンマッチング処理を行う。なお、パターンマッチング処理に際しては、比較する2つの顔画像が同じ大きさになるように、いずれか一方の顔画像の大きさを、他方の顔画像の大きさと略一致する大きさに拡大または縮小する。画像の拡大または縮小処理は、画像を構成する画素の補間処理方法(例えば、バイ・リニア法など)によって行うことができる。   Here, in the comparison process between human images, in this embodiment, pattern matching is performed on the detected face image. The CPU 110 extracts a skin color image area from the person image, and performs pattern matching processing using the extracted image area as a face image. In the pattern matching process, the size of one of the face images is enlarged or reduced to a size that approximately matches the size of the other face image so that the two face images to be compared have the same size. To do. The image enlargement or reduction processing can be performed by an interpolation processing method (for example, a bi-linear method) of pixels constituting the image.

次にステップS210にて、人物画像は一致するか否かを判定処理する。本実施例では、CPU110は、2つの顔画像を構成する画素の画素値を比較し、対応する各画素についての画素値の差分の総合計値が所定の閾値以内であるか否かによって2つの顔画像が一致するか否かを判定する。もとより、これ以外に、顔画像の一致が判定できる方法(例えば特許文献1に開示された方法)であれば、どのような方法を用いても差し支えない。   Next, in step S210, it is determined whether or not the person images match. In this embodiment, the CPU 110 compares the pixel values of the pixels constituting the two face images, and determines whether the total sum of the pixel value differences for the corresponding pixels is within a predetermined threshold value. It is determined whether the face images match. Of course, any other method may be used as long as it is a method capable of determining the coincidence of face images (for example, the method disclosed in Patent Document 1).

判定の結果、顔画像が一致、つまり人物画像が一致する場合(ステップS210:YES)、ステップS211にて、読み出したメタデータ有デジタル画像の人物に応じたメタデータを付与する処理を行い、ステップS215に進む。本実施例では、図3(b)に示したデジタル画像の人物画像と、図4(b)に示したデジタル画像の人物画像とが一致することから、CPU110は、図4(a)に示したメタデータ有デジタル画像のメタデータのうち、人物に応じたメタデータである「太郎」を、図3(a)に示した、メタデータ無デジタル画像のメタデータとして付与する。   As a result of the determination, if the face images match, that is, the person images match (step S210: YES), in step S211, processing is performed to add metadata according to the person of the read digital image with metadata. The process proceeds to S215. In the present embodiment, since the person image of the digital image shown in FIG. 3B matches the person image of the digital image shown in FIG. 4B, the CPU 110 shows that shown in FIG. Among the metadata of the digital image with metadata, “Taro”, which is metadata corresponding to the person, is given as metadata of the digital image without metadata shown in FIG.

一方、判定の結果、人物画像が一致しない場合(ステップS210:NO)、何もしないで次のステップS215に進む。   On the other hand, if the person images do not match as a result of the determination (step S210: NO), the process proceeds to the next step S215 without doing anything.

次に、ステップS215では、背景画像は一致するか否かを判定処理する。本実施例では、CPU110は、2つの背景画像を、前述したように画素の階調値と出現頻度との関係を示したヒストグラムとして表し、表された2つのヒストグラムを比較し、各階調値に対する出現頻度が所定の頻度差以内であるか否かによって2つの画像が一致するか否かを判定する。もとより、これ以外に、背景画像の一致が判定できる方法であれば、どのような方法を用いても差し支えない。   Next, in step S215, it is determined whether or not the background images match. In the present embodiment, the CPU 110 represents the two background images as histograms indicating the relationship between the gradation value of the pixel and the appearance frequency as described above, compares the two represented histograms, and determines the respective gradation values. It is determined whether or not the two images match depending on whether or not the appearance frequency is within a predetermined frequency difference. Of course, any other method may be used as long as it can determine whether the background image matches.

このように、本実施例では、人物画像と背景画像とを区分して、デジタル画像から人物画像を取り除いた画像を背景画像としている。従って、表されるヒストグラムには、人物画像の影響がほぼ排除されているので、背景画像のみを正しく比較することができるのである。   As described above, in this embodiment, the person image and the background image are classified, and an image obtained by removing the person image from the digital image is used as the background image. Accordingly, since the influence of the human image is almost eliminated from the represented histogram, only the background image can be correctly compared.

判定の結果、背景画像が一致する場合(ステップS215:YES)、ステップS216にて、読み出したメタデータ有デジタル画像の背景に応じたメタデータを付与する処理を行い、ステップS220に進む。   If the background images match as a result of the determination (step S215: YES), in step S216, processing is performed to add metadata according to the background of the read digital image with metadata, and the process proceeds to step S220.

一方、判定の結果、背景画像が一致しない場合(ステップS215:NO)、何もしないで次のステップS220に進む。本実施例では、図3(c)に示したメタデータ無デジタル画像の背景画像と、図4(c)に示したメタデータ有デジタル画像の背景画像とは一致しないことから、背景画像に応じたメタデータは付与されない。   On the other hand, if the background images do not match as a result of the determination (step S215: NO), the process proceeds to the next step S220 without doing anything. In the present embodiment, the background image of the digital image without metadata shown in FIG. 3C and the background image of the digital image with metadata shown in FIG. No metadata is given.

そして、ステップS220にて、読み出していないメタデータ有デジタル画像は存在するか否かを判定処理する。判定の結果、存在すれば(YES)、ステップS205に戻って上述したステップS220までの処理を繰り返す。CPU110はハードディスク113に格納されたメタデータ有デジタル画像について、まだ読み出していないデジタル画像から、所定の順序に従って次の1つのデジタル画像を読み出す。   In step S220, it is determined whether or not there is a digital image with metadata that has not been read out. If it exists as a result of the determination (YES), the process returns to step S205 to repeat the processing up to step S220 described above. The CPU 110 reads out the next digital image in accordance with a predetermined order from the digital images that have not yet been read out with respect to the digital images with metadata stored in the hard disk 113.

次に読み出されたメタデータ有デジタル画像の一例を図5(a)に示す。このデジタル画像は、「凸凹山」を背景にして写した人物画像である。そして、このデジタル画像には、メタデータとして、写っている人物名「次郎」と、背景名「凸凹山」が付与されているものとする。   An example of the read digital image with metadata is shown in FIG. This digital image is a human image taken against the background of “mountain and mountain”. It is assumed that the name of the person “Jiro” and the background name “Mt.

そして、ステップS206にて人物画像と背景画像に区分する処理が行われ、このメタデータ有デジタル画像は、図5(b)に示した人物画像と、図5(c)に示した背景画像とに区分される。人物画像と背景画像との区分方法は、前述したステップS203にて説明した方法と同様である。   In step S206, a process for dividing the image into a person image and a background image is performed. The digital image with metadata includes a person image shown in FIG. 5B and a background image shown in FIG. It is divided into. The method for dividing the person image and the background image is the same as the method described in step S203.

次に、前述したように、ステップS207にて、人物画像同士及び背景画像同士の比較処理が行われ、まずステップS210にて、人物画像は一致するか否かの判定処理が行われる。   Next, as described above, in step S207, person images and background images are compared, and in step S210, a determination process is performed to determine whether the person images match.

ここでは、図3(b)に示した人物画像と図5(b)に示した人物画像は一致しないので(ステップS210:NO)、何もしないで次のステップS215に進む。   Here, since the person image shown in FIG. 3B and the person image shown in FIG. 5B do not match (step S210: NO), the process proceeds to the next step S215 without doing anything.

次に、ステップS215にて、背景画像は一致するか否かの判定処理が行われる。そして、背景画像が一致する場合(ステップS215:YES)、ステップS216にて、読み出したメタデータ有デジタル画像の背景に応じたメタデータを付与する処理を行い、ステップS220に進む。今度は、図3(c)に示したメタデータ無デジタル画像の背景画像と、図5(c)に示したメタデータ有デジタル画像の背景画像とが一致するので、CPU110は、図5(a)に示したメタデータ有デジタル画像のメタデータのうち、背景に応じたメタデータである「凸凹山」を、図3(a)に示した、メタデータ無デジタル画像のメタデータとして付与する。   Next, in step S215, a determination process is performed to determine whether the background images match. If the background images match (step S215: YES), in step S216, processing is performed to add metadata according to the background of the read digital image with metadata, and the process proceeds to step S220. This time, the background image of the digital image without metadata shown in FIG. 3C matches the background image of the digital image with metadata shown in FIG. Among the metadata of the digital image with metadata shown in FIG. 3), “uneven mountain” that is metadata according to the background is given as metadata of the digital image without metadata shown in FIG.

このような処理が、ハードディスク113に格納された総てのメタデータ有デジタル画像について行われ、読み出していないメタデータ有デジタル画像が存在しなくなると(ステップS220:NO)、本実施例での画像処理装置100における画像処理が終了する。   Such a process is performed for all digital images with metadata stored in the hard disk 113, and when there are no metadata-ready digital images that have not been read (step S220: NO), the image in this embodiment is displayed. The image processing in the processing apparatus 100 ends.

ちなみに、本実施例では、図3(a)に示したメタデータ無デジタル画像には、上述したメタデータの付与処理の結果、メタデータとして「太郎」と「凸凹山」が付与される。従って、ユーザーは抽出を所望するデジタル画像が「凸凹山」を背景に「太郎」を写した画像である場合、メタデータ「太郎」と「凸凹山」とに基づいて、所望するデジタル画像を容易に抽出することができる。   Incidentally, in this embodiment, the metadata-less digital image shown in FIG. 3A is given “Taro” and “Roughness mountain” as metadata as a result of the above-described metadata assignment processing. Therefore, if the digital image that the user wants to extract is an image of “Taro” against “Mt. Ridge”, the user can easily obtain the desired digital image based on the metadata “Taro” and “Mt. Can be extracted.

上述したように、本実施例によれば、メタデータが付与されていないデジタル画像を人物画像と背景画像とに区分する。そして、区分した人物画像と一致する人物画像が写っているデジタル画像に既に付与されているメタデータのうち、人物に応じたメタデータを、メタデータが付与されていないデジタル画像に付与する。さらに、区分した背景画像と一致する背景画像が写っているデジタル画像に既に付与されているメタデータのうち、背景に応じたメタデータを、メタデータが付与されていないデジタル画像に付与する。この結果、ユーザーが抽出を所望するデジタル画像を、メタデータを用いて、大量のデジタル画像から容易に抽出することができる。   As described above, according to this embodiment, a digital image to which no metadata is added is divided into a person image and a background image. Then, among the metadata already assigned to the digital image in which the person image that matches the divided person image is included, metadata corresponding to the person is assigned to the digital image to which no metadata is assigned. Further, among the metadata already added to the digital image in which the background image matching the segmented background image is reflected, the metadata corresponding to the background is assigned to the digital image to which no metadata is assigned. As a result, a digital image that the user desires to extract can be easily extracted from a large amount of digital images using metadata.

また、人物画像と背景画像とを区分してメタデータを付与するので、それぞれの画像に最も適したメタデータが付与される確率が高くなる。また、人物画像と背景画像とを区分するので、背景画像の一致判定処理において、人物画像が背景画像に与える影響を排除することができ、背景画像についての一致判定の精度が高くなることが期待できる。   Further, since the metadata is given by dividing the person image and the background image, the probability that the most suitable metadata is given to each image is increased. Further, since the person image and the background image are separated, it is possible to eliminate the influence of the person image on the background image in the background image matching determination process, and it is expected that the accuracy of the matching determination for the background image will be improved. it can.

以上、本発明の実施の形態について実施例により説明したが、本発明はこうした実施の形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内において様々な形態で実施し得ることは勿論である。以下、変形例を挙げて説明する。   The embodiments of the present invention have been described with reference to the examples. However, the present invention is not limited to these embodiments, and can be implemented in various forms without departing from the spirit of the present invention. Of course. Hereinafter, a modification will be described.

(第1変形例)
上記実施例では、図2のステップS203(およびステップS206)において、顔画像の検出処理の他に、領域分割処理やエッジ抽出処理などの画像処理を行って人物画像を抽出することとした。しかしながら、このような処理は、演算回数も多く、また使用するメモリ領域も多く必要とすることから、画像処理に応じた負荷が重くなってしまう。そこで、変形例として、人物画像を、抽出した顔画像に基づいて予め決められた画像領域とすることとしてもよい。こうすれば、画像処理に応じた負荷を軽減することが可能となり、処理スピードが速くなることが期待できる。
(First modification)
In the above embodiment, in step S203 (and step S206) in FIG. 2, in addition to the face image detection process, a person image is extracted by performing image processing such as region division processing and edge extraction processing. However, such a process requires a large number of calculations and requires a large memory area to be used, so that the load according to the image processing becomes heavy. Therefore, as a modified example, the person image may be an image region determined in advance based on the extracted face image. By doing so, it is possible to reduce the load according to the image processing, and it can be expected that the processing speed is increased.

本変形例について、図6と図7を用いて説明する。図6は、抽出した顔画像に対して、人物画像の画像領域の設定例を示した模式図である。図示するように人物画像領域は、図中網掛け部で示したように、横方向(図面左右方向)については、顔画像の横幅KWの中心位置となる線KCXから、図面左側が長さKW1、図面右側が長さKW2とし、縦方向(図面上下方向)については、顔画像の縦幅KHの中心位置となる線KCYから、図面上側が長さKH1、図面下側が長さKH2としている。   This modification will be described with reference to FIGS. 6 and 7. FIG. 6 is a schematic diagram illustrating an example of setting the image area of the person image with respect to the extracted face image. As shown in the figure, the person image area has a length KW1 on the left side in the drawing from the line KCX which is the center position of the width KW of the face image in the horizontal direction (left and right direction in the drawing) as shown by the shaded portion in the drawing. The right side of the drawing is the length KW2, and the vertical direction (the vertical direction of the drawing) is the length KH1 on the upper side of the drawing and the length KH2 on the lower side of the drawing from the line KCY that is the center position of the vertical width KH of the face image.

長さKW1と長さKW2は、顔の横幅KWに対して肩幅を想定した長さを、顔を中心として横方向に設定したものである。また、長さKH1と長さKH2は、顔の縦幅KHに対して、頭髪部分までの長さと足先までの長さを想定して設定したものである。このように人物画像の画像領域を予め定めておけば、顔画像を検出することによって、人物画像の画像領域をおおよそ抽出することができることになる。   The length KW1 and the length KW2 are obtained by setting the length assuming the shoulder width with respect to the lateral width KW of the face in the lateral direction with the face as the center. The length KH1 and the length KH2 are set with respect to the length KH of the face, assuming the length to the hair portion and the length to the feet. Thus, if the image area of the person image is determined in advance, the image area of the person image can be roughly extracted by detecting the face image.

こうして人物画像の画像領域を抽出した場合の一例を図7に示した。図7(a)は、図3(a)に示したメタデータ無デジタル画像に対して、本変形例による区分方法にて人物画像を区分した場合を示し、図7(b)は、図5(a)に示したメタデータ有デジタル画像に対して、本変形例による区分方法にて人物画像を区分した場合を示している。   An example of the case where the image area of the person image is extracted in this way is shown in FIG. FIG. 7A shows a case where the person image is divided by the dividing method according to this modification example with respect to the digital image without metadata shown in FIG. 3A, and FIG. The figure shows a case where a person image is segmented by the segmentation method according to this modification to the digital image with metadata shown in (a).

図7において、図中網掛け領域で示した矩形部分が、区分された人物画像の部分になる。図から明らかなように、図7(a)で示したメタデータ無デジタル画像については、背景画像の一部が人物画像として区分されるものの、人物画像の部分は殆ど背景画像として区分されないので、背景画像の一致判定処理に際して人物画像が影響を与える確率は小さい。また、図7(b)で示したメタデータ有デジタル画像については、人物画像の一部分(左右の両手部分)が背景画像として区分されるものの、背景画像の大きさに対して画像領域が小さい場合は、ヒストグラムを大きく変化させることが無いので、一致判定処理に際して人物画像が影響を与える確率は小さいと考えて良い。   In FIG. 7, a rectangular portion indicated by a shaded area in the drawing is a portion of a divided person image. As is clear from the figure, in the metadata-free digital image shown in FIG. 7A, a part of the background image is classified as a person image, but a part of the person image is hardly classified as a background image. The probability that a person image will have an effect on the background image matching process is small. In addition, in the digital image with metadata shown in FIG. 7B, a part of the human image (left and right hands) is classified as a background image, but the image area is smaller than the size of the background image. Since the histogram does not change greatly, it can be considered that the probability that the human image has an influence in the matching determination processing is small.

(第2変形例)
上記実施例では、図2のステップS207における人物画像同士の比較処理において、検出された顔画像についてパターンマッチングを行うものとした。本変形例では、人物画像全体の画像をヒストグラムによって比較処理することとしてもよい。
(Second modification)
In the above-described embodiment, pattern matching is performed on the detected face image in the comparison process between human images in step S207 of FIG. In the present modification, the entire human image may be compared using a histogram.

このように人物画像全体を比較することによって、例えば人物が横向きに写っていたり、顔が小さく写っていたりして顔画像のパターンマッチングが困難であるような場合に有効である。すなわち、人物画像全体を比較するので、例えば、服装が一致するデジタル画像を抽出することができる。この結果、服装が一致する、つまり人物が一致するデジタル画像を抽出することができ、人物に応じたメタデータを正しく付与することができることになる。また、顔画像の拡大縮小処理を行うことなく人物画像を比較することができるので、処理負荷も軽減できる可能性がある。   Thus, by comparing the whole person images, it is effective when it is difficult to perform pattern matching of face images because, for example, a person appears sideways or a face appears small. That is, since the entire person images are compared, for example, a digital image with matching clothes can be extracted. As a result, it is possible to extract a digital image with matching clothes, that is, with a matching person, and to correctly assign metadata corresponding to the person. Further, since human images can be compared without performing facial image enlargement / reduction processing, the processing load may be reduced.

具体的な比較処理方法としては、前述した背景画像の比較処理と同様に、2つの人物画像を画素の階調値と出現頻度との関係を示したヒストグラムとして表し、表された2つのヒストグラムを比較し、各階調値の出現頻度が所定の頻度差以内であるか否かによって2つの画像が一致するか否かを判定すればよい。もとより、これ以外に、人物画像の一致が判定できる方法であれば、どのような方法を用いても差し支えない。   As a specific comparison processing method, similar to the background image comparison processing described above, the two person images are represented as histograms showing the relationship between the gradation value of the pixel and the appearance frequency, and the two represented histograms are expressed as follows. It is only necessary to compare and determine whether the two images match depending on whether the appearance frequency of each gradation value is within a predetermined frequency difference. Needless to say, any other method may be used as long as it can determine the matching of person images.

(第3変形例)
上記実施例では、ハードディスク113に格納された総てのメタデータ有デジタル画像について、所定の順序で1つずつ読み出し、メタデータ無デジタル画像との比較処理を行った。これは、前述しなかったが、こうすることで予め付与されたメタデータについて、人物に応じた総てのメタデータ、および背景に応じた総てのメタデータを付与することができるためである。
(Third Modification)
In the above embodiment, all the digital images with metadata stored in the hard disk 113 are read one by one in a predetermined order and compared with the digital images without metadata. This is because, although not described above, it is possible to assign all metadata according to the person and all metadata according to the background for the metadata given in advance. .

しかしながら、予め付与されたメタデータが、同じか凡そ一致している場合は、必ずしもメタデータ有デジタル画像の総てのデジタル画像との比較を行う必要はない。そこで本変形例として、人物画像について一致するデジタル画像が存在し、このデジタル画像に予め付与されている人物に応じたメタデータが、メタデータ無デジタル画像に付与された時点で、人物画像についての比較処理を終了することとしてもよい。また同じく、背景画像について一致するデジタル画像が存在し、このデジタル画像に予め付与されている背景に応じたメタデータが、メタデータ無デジタル画像に付与された時点で、背景画像についての比較処理を終了することとしてもよい。こうすれば、画像処理に応じた負荷が軽減される。   However, when the pre-assigned metadata is the same or approximately the same, it is not always necessary to compare the digital image with metadata with all the digital images. Therefore, as a modified example, there is a digital image that matches a person image, and when metadata corresponding to a person previously assigned to the digital image is added to the digital image without metadata, The comparison process may be terminated. Similarly, there is a matching digital image for the background image, and when the metadata corresponding to the background previously given to the digital image is given to the digital image without metadata, the comparison process for the background image is performed. It is good also as ending. In this way, the load corresponding to the image processing is reduced.

本変形例における具体的な処理については、図示しないが、図2に示した処理フローチャートにおいて、ステップS211の処理が1回された時点で、以降ステップS210とステップS211の処理を行わないようにする。また、ステップS216の処理が1回された時点で、以降ステップS215とステップS216の処理を行わないようにする。そして、ステップS211とステップS216の処理が両方1回行われた時点で、すべての処理を終了するようにすればよい。   Although the specific processing in this modification is not shown, when the processing in step S211 is performed once in the processing flowchart shown in FIG. 2, the processing in step S210 and step S211 is not performed thereafter. . Further, when the process of step S216 is performed once, the processes of step S215 and step S216 are not performed thereafter. Then, all the processes may be terminated when both the processes of step S211 and step S216 are performed once.

(その他の変形例)
上記実施例では、メタデータ無デジタル画像をスキャナ170から取得するものとしたが、これに限るものではない。例えば、スチール写真をデジタルビデオカメラ140やデジタルカメラ160で撮影し、撮影したデジタル画像を取得することとしてもよい。あるいは、スチール写真などメタデータが付与されていない画像がデジタル画像として記録されているCD−ROM150から取得することとしてもよい。
(Other variations)
In the above embodiment, the digital image without metadata is acquired from the scanner 170, but the present invention is not limited to this. For example, a still picture may be taken with the digital video camera 140 or the digital camera 160, and the taken digital image may be acquired. Or it is good also as acquiring from CD-ROM150 in which the image which metadata, such as a still picture, is not provided is recorded as a digital image.

また取得に際して、取得対象となるデジタル画像が多い場合、図1に示したモニター130に取得対象となるデジタル画像を一覧表示し、ユーザーがキーボード131やマウス132を操作して選択することとしてもよい。   When there are many digital images to be acquired at the time of acquisition, a list of the digital images to be acquired may be displayed on the monitor 130 shown in FIG. 1, and the user may select the digital images by operating the keyboard 131 or the mouse 132. .

また、メタデータ無デジタル画像は、スチール写真のように静止画像から変換されたデジタル画像以外に、動画像から変換されたデジタル画像であってもよい。この場合は、デジタルビデオカメラ140から、動画像を構成するフレーム画像を画像処理装置100に供給する。なお、メタデータ無デジタル画像が動画像のフレーム画像のときは、被写体となる人物が動いている場合、周知のように、時系列順で連続するフレーム画像間の動きベクトル解析によって、人物画像を抽出することができる。   Further, the digital image without metadata may be a digital image converted from a moving image in addition to a digital image converted from a still image such as a still photo. In this case, a frame image constituting a moving image is supplied from the digital video camera 140 to the image processing apparatus 100. When the digital image without metadata is a frame image of a moving image, if a person who is a subject is moving, as is well known, the person image is analyzed by motion vector analysis between consecutive frame images in time series. Can be extracted.

また、上記実施例において、人物画像あるいは背景画像が一致したメタデータ有デジタル画像の総てを、モニター130に一覧表示し、メタデータを付与すべき対象となるメタデータ有デジタル画像を、ユーザーがキーボード131やマウス132を操作して選択することとしてもよい。こうすれば、ユーザーが所望するメタデータを適切に付与することができる。   In the above embodiment, all the digital images with metadata that match the person image or the background image are displayed in a list on the monitor 130, and the user can select the digital images with metadata to which the metadata should be added. The selection may be made by operating the keyboard 131 or the mouse 132. In this way, metadata desired by the user can be appropriately given.

なお、上記実施例では、人物画像と背景画像の双方にメタデータを付与する構成としたが、人物画像のみ、または背景画像のみにメタデータを付与する構成としてもよい。また、上記実施例では、前景画像として人物画像を対象としたが、人物画像に限らず、特定の画像を前景画像として同様に本発明を適用できることは勿論である。   In the above embodiment, the metadata is assigned to both the person image and the background image. However, the metadata may be assigned to only the person image or only the background image. In the above embodiment, a human image is targeted as a foreground image. However, the present invention is not limited to a human image and can be applied to a specific image as a foreground image.

本発明の一実施例としての画像処理装置についての構成図。1 is a configuration diagram of an image processing apparatus as an embodiment of the present invention. 実施例の画像処理装置が行う処理を説明するフローチャート。6 is a flowchart for explaining processing performed by the image processing apparatus according to the embodiment. (a)は、スチール写真を変換したデジタル画像の一例を示す模式図。(b)は、そのデジタル画像から区分された人物画像を示す模式図。(c)は、そのデジタル画像から区分された背景画像を示す模式図。(A) is a schematic diagram which shows an example of the digital image which converted the still photograph. (B) is a schematic diagram showing a person image segmented from the digital image. (C) is a schematic diagram showing a background image segmented from the digital image. (a)は、読み出されたメタデータ有デジタル画像の一例を示す模式図。(b)は、そのデジタル画像から区分された人物画像を示す模式図。(c)は、そのデジタル画像から区分された背景画像を示す模式図。(A) is a schematic diagram which shows an example of the read digital image with metadata. (B) is a schematic diagram showing a person image segmented from the digital image. (C) is a schematic diagram showing a background image segmented from the digital image. (a)は、読み出された別のメタデータ有デジタル画像の一例を示す模式図。(b)は、そのデジタル画像から区分された人物画像を示す模式図。(c)は、そのデジタル画像から区分された背景画像を示す模式図。(A) is a schematic diagram which shows an example of another read digital image with metadata. (B) is a schematic diagram showing a person image segmented from the digital image. (C) is a schematic diagram showing a background image segmented from the digital image. 顔画像に対して、人物画像の画像領域を定めた様子を示した模式図。The schematic diagram which showed a mode that the image area of the person image was defined with respect to the face image. (a)は、第1変形例による区分方法にて人物画像を区分した場合を示す説明図。(b)は、第1変形例による区分方法にて人物画像を区分した場合を示す説明図。(A) is explanatory drawing which shows the case where a person image is divided by the classification method by the 1st modification. (B) is explanatory drawing which shows the case where a person image is divided by the classification method by the 1st modification.

符号の説明Explanation of symbols

100…画像処理装置、100a…記憶部、100b…取得部、100c…第1の画像区分部、100d…第2の画像区分部、100e…第1の一致判定部、100f…第2の一致判定部、100g…第1のメタデータ付与部、100h…第2のメタデータ付与部、110…CPU、111…ROM、112…RAM、113…ハードディスク、115…バスライン、120…I/F、121…I/F、130…モニター、131…キーボード、132…マウス、140…デジタルビデオカメラ、160…デジタルカメラ、170…スキャナ。   DESCRIPTION OF SYMBOLS 100 ... Image processing apparatus, 100a ... Memory | storage part, 100b ... Acquisition part, 100c ... 1st image division part, 100d ... 2nd image division part, 100e ... 1st coincidence determination part, 100f ... 2nd coincidence determination , 100 g... First metadata assigning unit, 100 h... Second metadata assigning unit, 110... CPU, 111... ROM, 112... RAM, 113. ... I / F, 130 ... monitor, 131 ... keyboard, 132 ... mouse, 140 ... digital video camera, 160 ... digital camera, 170 ... scanner.

Claims (5)

前景画像を有するデジタル画像に、付帯データを付与する画像処理装置であって、
前記付帯データが付与されている付帯データ有デジタル画像を記憶する記憶部と、
前記付帯データが付与されていない付帯データ無デジタル画像を取得する取得部と、
前記付帯データ有デジタル画像を、前記前景画像と当該前景画像以外の背景画像とに区分する第1の画像区分部と、
前記付帯データ無デジタル画像を、前記前景画像と当該前景画像以外の背景画像とに区分する第2の画像区分部と、
前記第1の画像区分部が区分した背景画像と、前記第2の画像区分部が区分した背景画像とが、一致するか否かを判定する一致判定部と、
前記一致判定部が一致すると判定した前記背景画像を含む付帯データ有デジタル画像に付与され、前記背景画像に応じた前記付帯データを、前記付帯データ無デジタル画像に付与する付帯データ付与部と、
を備えた画像処理装置。
An image processing apparatus for attaching auxiliary data to a digital image having a foreground image,
A storage unit for storing a digital image with accompanying data to which the accompanying data is attached;
An acquisition unit for acquiring a digital image without incidental data to which the incidental data is not attached;
A first image segmentation unit for segmenting the digital image with accompanying data into the foreground image and a background image other than the foreground image;
A second image segmentation unit that segments the digital data without incidental data into the foreground image and a background image other than the foreground image;
A coincidence determination unit that determines whether or not the background image segmented by the first image segmentation unit and the background image segmented by the second image segmentation unit match;
An auxiliary data giving unit that is attached to the digital image with accompanying data that includes the background image determined to be matched by the matching determining unit, and that attaches the auxiliary data according to the background image to the digital image without accompanying data;
An image processing apparatus.
請求項1に記載の画像処理装置であって、
前記前景画像は人物画像であることを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The image processing apparatus according to claim 1, wherein the foreground image is a person image.
請求項2に記載の画像処理装置であって、
前記第1の画像区分部または前記第2の画像区分部は、前記人物画像を有するデジタル画像から顔画像を抽出し、前記抽出された顔画像領域について、顔の大きさに応じて予め定められた画像領域を前記人物画像として区分することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The first image segmenting unit or the second image segmenting unit extracts a face image from the digital image having the person image, and the extracted face image region is predetermined according to the size of the face. An image processing apparatus, wherein the image area is divided as the person image.
前景画像を有するデジタル画像に、付帯データを付与する画像処理方法であって、
前記付帯データが付与されている付帯データ有デジタル画像を記憶する記憶工程と、
前記付帯データが付与されていない付帯データ無デジタル画像を取得する取得工程と、
前記付帯データ有デジタル画像を、前記前景画像と当該前景画像以外の背景画像とに区分する第1の画像区分工程と、
前記付帯データ無デジタル画像を、前記前景画像と当該前景画像以外の背景画像とに区分する第2の画像区分工程と、
前記第1の画像区分工程が区分した背景画像と、前記第2の画像区分工程が区分した背景画像とが、一致するか否かを判定する一致判定工程と、
前記一致判定工程が一致すると判定した前記背景画像を含む付帯データ有デジタル画像に付与され、前記背景画像に応じた前記付帯データを、前記付帯データ無デジタル画像に付与する付帯データ付与工程と、
を備えた画像処理方法。
An image processing method for attaching auxiliary data to a digital image having a foreground image,
A storage step of storing a digital image with accompanying data to which the accompanying data is attached;
An acquisition step of acquiring a digital image without incidental data to which the incidental data is not attached,
A first image segmentation step of segmenting the digital data with accompanying data into the foreground image and a background image other than the foreground image;
A second image segmentation step of segmenting the auxiliary data-free digital image into the foreground image and a background image other than the foreground image;
A matching determination step for determining whether the background image divided by the first image dividing step and the background image divided by the second image dividing step match,
Ancillary data providing step of attaching the incidental data according to the background image to the digital image with the incidental data, which is given to the digital image with the incidental data including the background image determined to match the coincidence determining step;
An image processing method comprising:
前景画像を有するデジタル画像に、付帯データを付与する画像処理プログラムであって、
前記付帯データが付与されている付帯データ有デジタル画像を記憶する記憶機能と、
前記付帯データが付与されていない付帯データ無デジタル画像を取得する取得機能と、
前記付帯データ有デジタル画像を、前記前景画像と当該前景画像以外の背景画像とに区分する第1の画像区分機能と、
前記付帯データ無デジタル画像を、前記前景画像と当該前景画像以外の背景画像とに区分する第2の画像区分機能と、
前記第1の画像区分機能が区分した背景画像と、前記第2の画像区分機能が区分した背景画像とが、一致するか否かを判定する一致判定機能と、
前記一致判定機能が一致すると判定した前記背景画像を含む付帯データ有デジタル画像に付与され、前記背景画像に応じた前記付帯データを、前記付帯データ無デジタル画像に付与する付帯データ付与機能と、
をコンピュータに実現させる画像処理プログラム。
An image processing program for adding auxiliary data to a digital image having a foreground image,
A storage function for storing a digital image with accompanying data to which the accompanying data is attached;
An acquisition function for acquiring a digital image without incidental data to which the incidental data is not attached;
A first image segmentation function for segmenting the digital image with accompanying data into the foreground image and a background image other than the foreground image;
A second image segmentation function for segmenting the auxiliary data-free digital image into the foreground image and a background image other than the foreground image;
A matching determination function for determining whether or not the background image segmented by the first image segmentation function matches the background image segmented by the second image segmentation function;
Attached data giving function that is given to the digital image with accompanying data that includes the background image determined to match the matching judgment function, and that gives the accompanying data according to the background image to the digital image without accompanying data;
An image processing program for realizing a computer.
JP2006335372A 2006-12-13 2006-12-13 Image processor, image processing method, and image processing program Withdrawn JP2008148183A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006335372A JP2008148183A (en) 2006-12-13 2006-12-13 Image processor, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006335372A JP2008148183A (en) 2006-12-13 2006-12-13 Image processor, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2008148183A true JP2008148183A (en) 2008-06-26

Family

ID=39607834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006335372A Withdrawn JP2008148183A (en) 2006-12-13 2006-12-13 Image processor, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP2008148183A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009337A (en) * 2008-06-27 2010-01-14 Denso It Laboratory Inc Annotation device, annotation method, and program
JP2010158009A (en) * 2008-12-26 2010-07-15 Samsung Electronics Co Ltd Video processing method and device therefor
WO2012056610A1 (en) * 2010-10-25 2012-05-03 日本電気株式会社 Content scene assessment device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009337A (en) * 2008-06-27 2010-01-14 Denso It Laboratory Inc Annotation device, annotation method, and program
JP2010158009A (en) * 2008-12-26 2010-07-15 Samsung Electronics Co Ltd Video processing method and device therefor
US8767048B2 (en) 2008-12-26 2014-07-01 Samsung Electronics Co., Ltd. Image processing method and apparatus therefor
KR101547151B1 (en) * 2008-12-26 2015-08-25 삼성전자주식회사 Image processing method and apparatus
WO2012056610A1 (en) * 2010-10-25 2012-05-03 日本電気株式会社 Content scene assessment device

Similar Documents

Publication Publication Date Title
CN108241645B (en) Image processing method and device
US7908547B2 (en) Album creating apparatus, album creating method and program
US8064710B2 (en) Image processing apparatus, method of controlling thereof, and program
US8270682B2 (en) Hair segmentation
JP2010072934A (en) Album creation device and album creation method
JP2004246593A (en) Face image correction method and device and face image correction program
US11462040B2 (en) Distractor classifier
JP2008131330A (en) Image display device and image displaying method
US20050147304A1 (en) Head-top detecting method, head-top detecting system and a head-top detecting program for a human face
KR20130120175A (en) Apparatus, method and computer readable recording medium for generating a caricature automatically
JP2011054080A (en) Image processing apparatus, method and program
JP2020127194A (en) Computer system and program
JP7084795B2 (en) Image processing equipment, image providing equipment, their control methods and programs
JP2008148183A (en) Image processor, image processing method, and image processing program
JP2005234686A (en) Expression recognition device, expression recognition method and program
US7349558B2 (en) Image processing method, image processing apparatus, storage medium and program
JP4804382B2 (en) Image processing method, image processing program, and image processing apparatus
US20060010582A1 (en) Chin detecting method, chin detecting system and chin detecting program for a chin of a human face
US11776237B2 (en) Mitigating people distractors in images
US11373313B2 (en) Image processing apparatus and image processing method
JP2010200270A (en) Image processing device, camera, and program
JP4522323B2 (en) Image processing apparatus and control method thereof
CN114627211A (en) Video business card generation method and device, computer equipment and storage medium
JP3772845B2 (en) Image processing program, image processing apparatus, and photographing apparatus
Montero et al. Watermark detection and clearance in video using simple signal and image processing techniques

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100302