JP2011134173A - Apparatus, method and program for displaying image - Google Patents

Apparatus, method and program for displaying image Download PDF

Info

Publication number
JP2011134173A
JP2011134173A JP2009294058A JP2009294058A JP2011134173A JP 2011134173 A JP2011134173 A JP 2011134173A JP 2009294058 A JP2009294058 A JP 2009294058A JP 2009294058 A JP2009294058 A JP 2009294058A JP 2011134173 A JP2011134173 A JP 2011134173A
Authority
JP
Japan
Prior art keywords
face
image
sub
importance
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009294058A
Other languages
Japanese (ja)
Inventor
Takayoshi Kojima
貴義 小嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009294058A priority Critical patent/JP2011134173A/en
Publication of JP2011134173A publication Critical patent/JP2011134173A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To prevent a sub-image from being superimposed on the face of a target person when there are a lot of faces in a main image and the sub-image overlaps any of the faces. <P>SOLUTION: The image display apparatus includes: a face region detection part 52 that detects a face region of a person displayed in the main screen; a face importance determination part 55 that determines the importance of the detected face region in the main screen; and a display position setting part 56 that sets a display position of the sub-image in the main screen based on the importance of the face region. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像表示装置、画像表示方法及び画像表示プログラムに関する。   The present invention relates to an image display device, an image display method, and an image display program.

従来、例えばフォトビューワーなどにおいて、主たる表示対象であるメイン画像に対して、アイコンや撮影情報などの文字列をサブ画像として重ねて表示するものがある。例えば、特許文献1では、メイン画像を表示する主画面にサブ画像を表示する副画面を重ねて表示でき、主画面に表示されている画像内の顔の位置に応じて顔が見えるように主画面と副画面の表示を制御している。   2. Description of the Related Art Conventionally, for example, in a photo viewer or the like, there are some which display a character string such as an icon or shooting information as a sub image superimposed on a main image that is a main display target. For example, in Patent Document 1, a main screen that displays a main image can be overlaid with a sub screen that displays a sub image, and the face can be seen according to the position of the face in the image displayed on the main screen. Controls the display of screens and sub-screens.

特開2009−89051号公報JP 2009-89051 A

しかしながら、特許文献1では、主画面の顔と副画面が重ならないようにするために、副画面の位置や大きさを制御したり、重なった場合に顔が見えるように副画面の透過度を制御したりしている。ここで、主画面に複数の人物の顔があって、これらの顔のいずれかに副画面が重なってしまう場合、隠れるのを避けたい重要な人物の顔に副画面が重なってしまう可能性がある。また、その顔が副画面から透過できたとしても顔が見えにくくなってしまう。   However, in Patent Document 1, in order to prevent the main screen face and the sub-screen from overlapping, the position and size of the sub-screen are controlled, or the sub-screen transparency is set so that the face can be seen when they overlap. Or control. If there are multiple human faces on the main screen and the sub screen overlaps one of these faces, the sub screen may overlap the face of an important person who wants to avoid hiding. is there. Further, even if the face can be transmitted from the sub-screen, the face becomes difficult to see.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1]メイン画像と、当該メイン画像に重なるサブ画像とを表示することが可能な画像表示装置であって、前記メイン画像に表示された人物の顔領域を検出する顔領域検出部と、前記検出された顔領域について、前記メイン画像における重要度を判断する顔重要度判断部と、前記顔領域の重要度に基づいて、前記メイン画像における前記サブ画像の表示位置を設定する表示位置設定部と、を有することを特徴とする画像表示装置。   Application Example 1 An image display device capable of displaying a main image and a sub-image that overlaps the main image, and a face area detection unit that detects a face area of a person displayed in the main image; A face importance level determination unit for determining the importance level in the main image for the detected face area, and a display position for setting the display position of the sub-image in the main image based on the importance level of the face area An image display device comprising: a setting unit.

上記した画像表示装置によれば、顔重要度判断部が、メイン画像に表示された顔領域の重要度を判断する。そして、表示位置設定部が、顔領域の重要度に基づいてメイン画像におけるサブ画像の表示位置を設定する。顔領域の重要度に基づいてメイン画像におけるサブ画像の表示位置を設定することにより、重要度の高い顔領域とは重ならない位置にサブ画像を表示することができる。この結果、隠れるのを避けたい重要な人物の顔については、サブ画像に隠れることなく見ることができる。   According to the image display device described above, the face importance level determination unit determines the importance level of the face area displayed in the main image. Then, the display position setting unit sets the display position of the sub image in the main image based on the importance of the face area. By setting the display position of the sub image in the main image based on the importance of the face area, the sub image can be displayed at a position that does not overlap with the face area having a high importance. As a result, the face of an important person who wants to avoid hiding can be seen without being hidden in the sub-image.

[適用例2]人物の顔画像の特徴量が登録された顔特徴情報及び当該顔特徴情報に対応する人物の重要度が登録された人物重要度情報を記憶する記憶部と、前記顔領域検出部により検出された前記顔領域から特徴量を検出する顔特徴検出部と、前記顔特徴検出部により検出された特徴量と前記記憶されている顔特徴情報とを照合することにより、前記顔領域の人物を特定する顔認識部と、を更に有し、前記顔重要度判断部は、前記特定された人物に対応する前記記憶されている人物重要度情報に基づいて、前記顔領域の重要度を判断することを特徴とする上記画像表示装置。   Application Example 2 A storage unit that stores face feature information in which feature values of a person's face image are registered, and person importance information in which the importance of a person corresponding to the face feature information is registered, and the face area detection A face feature detection unit that detects a feature amount from the face region detected by a part; and the feature amount detected by the face feature detection unit and the stored face feature information A face recognizing unit for identifying the person, and the face importance determining unit is configured to determine the importance of the face region based on the stored person importance information corresponding to the identified person. The image display device according to claim 1, wherein:

上記した画像表示装置によれば、顔認識部が、顔領域から検出された特徴量と顔特徴情報とを照合することにより顔領域の人物を特定する。そして、顔重要度判断部は、特定された人物に対応する人物重要度情報に基づいて顔領域の重要度を判断する。これにより、メイン画像に表示された顔領域の重要度を、予め登録されている顔特徴情報及び人物重要度情報に基づいて得ることができる。   According to the above-described image display device, the face recognition unit identifies a person in the face area by comparing the feature amount detected from the face area with the face feature information. Then, the face importance level determination unit determines the importance level of the face area based on the person importance level information corresponding to the specified person. Thereby, the importance of the face area displayed on the main image can be obtained based on the pre-registered face feature information and person importance information.

[適用例3]前記メイン画像の領域に、前記サブ画像を表示する候補領域となる複数のサブ画像表示領域が予め定義されていることを特徴とする上記画像表示装置。   Application Example 3 In the image display device, a plurality of sub-image display areas that are candidate areas for displaying the sub-image are defined in advance in the area of the main image.

上記した画像表示装置によれば、複数のサブ画像表示領域が予め定義されており、表示位置設定部は、これらのサブ画像表示領域の中から、顔領域の重要度に基づいてサブ画像の表示位置を設定することができる。これにより、略一定した位置にサブ画像が表示されることになり、ユーザーは、サブ画像を容易に確認することができる。   According to the image display device described above, a plurality of sub-image display areas are defined in advance, and the display position setting unit displays sub-images based on the importance of the face area from among these sub-image display areas. The position can be set. Thereby, the sub image is displayed at a substantially constant position, and the user can easily confirm the sub image.

[適用例4]メイン画像と、当該メイン画像に重なるサブ画像とを表示することが可能な画像表示方法であって、前記メイン画像に表示された人物の顔領域を検出する顔領域検出工程と、前記検出された顔領域について、前記メイン画像における重要度を判断する顔重要度判断工程と、前記顔領域の重要度に基づいて、前記メイン画像における前記サブ画像の表示位置を設定する表示位置設定工程と、を有することを特徴とする画像表示方法。   Application Example 4 An image display method capable of displaying a main image and a sub-image that overlaps the main image, and a face area detection step of detecting a face area of a person displayed in the main image; A face importance level determining step for determining the importance level in the main image for the detected face area, and a display position for setting the display position of the sub image in the main image based on the importance level of the face area And a setting step.

上記した画像表示方法によれば、顔重要度判断工程において、メイン画像に表示された顔領域の重要度を判断する。そして、表示位置設定工程において、顔領域の重要度に基づいてメイン画像におけるサブ画像の表示位置を設定する。顔領域の重要度に基づいてメイン画像におけるサブ画像の表示位置を設定することにより、重要度の高い顔領域とは重ならない位置にサブ画像を表示することができる。この結果、隠れるのを避けたい重要な人物の顔については、サブ画像に隠れることなく見ることができる。   According to the image display method described above, the importance of the face area displayed in the main image is determined in the face importance determination step. In the display position setting step, the display position of the sub image in the main image is set based on the importance of the face area. By setting the display position of the sub image in the main image based on the importance of the face area, the sub image can be displayed at a position that does not overlap with the face area having a high importance. As a result, the face of an important person who wants to avoid hiding can be seen without being hidden in the sub-image.

[適用例5]メイン画像と、当該メイン画像に重なるサブ画像とを表示することが可能な画像表示プログラムであって、前記メイン画像に表示された人物の顔領域を検出する顔領域検出機能と、前記検出された顔領域について、前記メイン画像における重要度を判断する顔重要度判断機能と、前記顔領域の重要度に基づいて、前記メイン画像における前記サブ画像の表示位置を設定する表示位置設定機能と、をコンピューターに実行させるための画像表示プログラム。   Application Example 5 An image display program capable of displaying a main image and a sub-image overlapping with the main image, a face area detection function for detecting a face area of a person displayed in the main image, And a display position for setting the display position of the sub-image in the main image based on the importance level determination function for determining the importance level in the main image and the importance level of the face area for the detected face area. An image display program for causing a computer to execute a setting function.

上記した画像表示プログラムによれば、顔重要度判断機能により、メイン画像に表示された顔領域の重要度を判断する。そして、表示位置設定機能により、顔領域の重要度に基づいてメイン画像におけるサブ画像の表示位置を設定する。顔領域の重要度に基づいてメイン画像におけるサブ画像の表示位置を設定することにより、重要度の高い顔領域とは重ならない位置にサブ画像を表示することができる。この結果、隠れるのを避けたい重要な人物の顔については、サブ画像に隠れることなく見ることができる。   According to the image display program described above, the importance of the face area displayed in the main image is determined by the face importance determination function. Then, the display position setting function sets the display position of the sub image in the main image based on the importance of the face area. By setting the display position of the sub image in the main image based on the importance of the face area, the sub image can be displayed at a position that does not overlap with the face area having a high importance. As a result, the face of an important person who wants to avoid hiding can be seen without being hidden in the sub-image.

画像表示装置のハードウエアー構成を示すブロック図。The block diagram which shows the hardware constitutions of an image display apparatus. 画像表示装置の機能構成を示すブロック図。The block diagram which shows the function structure of an image display apparatus. 画像表示装置の動作を示すフローチャート。The flowchart which shows operation | movement of an image display apparatus. メイン画像の領域内に表示する各サブ画像表示領域の例を示す図。The figure which shows the example of each sub image display area displayed in the area | region of a main image. メイン画像に人物が含まれる例を示す図。The figure which shows the example in which a person is included in a main image. 顔特徴情報及び人物重要度情報に基づいた人物テーブルの例を示す図。The figure which shows the example of the person table based on face feature information and person importance information. 各サブ画像表示領域の重要度を算出する例を示す図。The figure which shows the example which calculates the importance of each sub image display area. サブ画像表示領域の表示位置及び領域サイズを可変にした例を示す図。The figure which shows the example which made the display position and area | region size of a sub image display area variable.

以下、本実施形態に係る画像表示装置について、図面を参照して説明する。   Hereinafter, the image display apparatus according to the present embodiment will be described with reference to the drawings.

<画像表示装置の構成>
最初に、本実施形態に係る画像表示装置の構成について説明する。
図1は、本実施形態に係る画像表示装置1のハードウエアー構成を示すブロック図である。この画像表示装置は、例えば、フォトビューワー、プリンター、プロジェクター、パソコン、デジタルカメラ、携帯電話などの情報処理機器の一機能として実施することができる。
<Configuration of image display device>
First, the configuration of the image display apparatus according to the present embodiment will be described.
FIG. 1 is a block diagram showing a hardware configuration of the image display apparatus 1 according to the present embodiment. This image display device can be implemented as a function of an information processing device such as a photo viewer, a printer, a projector, a personal computer, a digital camera, or a mobile phone.

画像表示装置1は、CPU11、内部メモリー12、操作部13、表示部14、通信インターフェイス15、記憶部16等を備えている。   The image display device 1 includes a CPU 11, an internal memory 12, an operation unit 13, a display unit 14, a communication interface 15, a storage unit 16, and the like.

CPU(Central Processing Unit)11は、上記の各部を制御して、内部メモリー12に格納されているプログラムに応じて各種の処理を実行する。内部メモリー12は、CPU11が実行する各種プログラムや各種データを格納するROM(Read Only Memory)、及びCPU11が実行対象とするプログラムやデータを一時的に格納するRAM(Random Access Memory)によって構成されている。   A CPU (Central Processing Unit) 11 controls the above-described units, and executes various processes according to programs stored in the internal memory 12. The internal memory 12 includes a ROM (Read Only Memory) that stores various programs executed by the CPU 11 and various data, and a RAM (Random Access Memory) that temporarily stores programs and data to be executed by the CPU 11. Yes.

操作部13は、ボタンやタッチパネル等により構成され、ユーザーからの操作内容をCPU11に通知する。表示部14は、例えば液晶ディスプレイ等により構成され、CPU11から供給されたデータに対応する画像を表示する。通信インターフェイス15は、例えばデジタルカメラ等の情報機器から画像データなどのやり取りを行うためのインターフェイスである。   The operation unit 13 includes buttons, a touch panel, and the like, and notifies the CPU 11 of the operation content from the user. The display unit 14 is configured by a liquid crystal display, for example, and displays an image corresponding to data supplied from the CPU 11. The communication interface 15 is an interface for exchanging image data and the like from an information device such as a digital camera.

記憶部16は、例えば、EEPROM(Electrically Erasable Programmable Read-Only Memory)やフラッシュメモリーのような不揮発性メモリー、又はハードディスクにより構成される。記憶部16には、人物の顔画像の特徴量が登録された顔特徴情報16a、及び当該顔特徴情報16aに対応する人物の重要度が登録された人物重要度情報16bが予め記憶されている。   The storage unit 16 includes, for example, a nonvolatile memory such as an EEPROM (Electrically Erasable Programmable Read-Only Memory) or a flash memory, or a hard disk. The storage unit 16 stores in advance face feature information 16a in which the feature amount of the person's face image is registered, and person importance information 16b in which the importance of the person corresponding to the face feature information 16a is registered. .

図2は、画像表示装置1の機能構成を示すブロック図である。同図に示すように、画像表示装置1は、メイン画像表示部51、顔領域検出部52、顔特徴検出部53、顔認識部54、顔重要度判断部55、表示位置設定部56、サブ画像表示部57等の各機能を備えている。これらの機能は、CPU11が、内部メモリー12に記憶されている所定のプログラムを実行することよって実現される。   FIG. 2 is a block diagram illustrating a functional configuration of the image display apparatus 1. As shown in the figure, the image display device 1 includes a main image display unit 51, a face area detection unit 52, a face feature detection unit 53, a face recognition unit 54, a face importance degree determination unit 55, a display position setting unit 56, a sub Each function of the image display unit 57 and the like is provided. These functions are realized by the CPU 11 executing a predetermined program stored in the internal memory 12.

メイン画像表示部51は、例えば人物画像や風景画像等を、メイン画像として表示部14の全面に渡って表示する。このメイン画像は、例えばデジタルカメラ等の情報機器から通信インターフェイス15を介して取得したものである。
また、サブ画像表示部57は、例えば、アイコン、撮影情報などの文字列、ヒストグラム等をサブ画像としてメイン画像の一部に重なるように表示する。このため、メイン画像の領域内には、サブ画像を表示する領域候補となる複数のサブ画像表示領域が予め定義されている。各サブ画像表示領域について、メイン画像の領域内における表示位置、領域サイズ、優先度等の定義情報が記憶部16に予め記憶されている。この定義情報は、ユーザーが操作部13を介して適宜設定することができる。
The main image display unit 51 displays, for example, a person image or a landscape image over the entire surface of the display unit 14 as a main image. This main image is obtained from an information device such as a digital camera via the communication interface 15, for example.
The sub image display unit 57 displays, for example, icons, character strings such as shooting information, histograms, and the like as sub images so as to overlap a part of the main image. For this reason, a plurality of sub-image display areas that are candidate areas for displaying sub-images are defined in advance in the main image area. For each sub-image display area, definition information such as the display position, area size, and priority in the main image area is stored in the storage unit 16 in advance. This definition information can be appropriately set by the user via the operation unit 13.

顔領域検出部52は、メイン画像表示部51により表示された画像に含まれる全ての顔領域を検出する。本実施形態では、例えば、テンプレートを利用したパターンマッチングによる方法(特開2006−279460号公報参照)等の公知の検出方法を用いて顔領域を検出する。   The face area detection unit 52 detects all face areas included in the image displayed by the main image display unit 51. In the present embodiment, for example, a face area is detected using a known detection method such as a pattern matching method using a template (see Japanese Patent Application Laid-Open No. 2006-279460).

顔特徴検出部53は、顔領域検出部52により検出された顔領域から顔の特徴量を検出する。この特徴量は、顔領域の人物の顔認識を行うために用いられる。ここでは、顔領域から顔、目及び口の器官輪郭と、それらの顔領域における相対位置を検出する。本実施形態では、上記した顔領域の検出と同様に、例えば、テンプレートを利用したパターンマッチングによる方法等の公知の検出方法を用いて顔器官を検出する。   The face feature detection unit 53 detects a face feature amount from the face region detected by the face region detection unit 52. This feature amount is used to perform face recognition of a person in the face area. Here, the organ outlines of the face, eyes, and mouth are detected from the face area, and the relative positions in these face areas are detected. In the present embodiment, the face organ is detected using a known detection method such as a pattern matching method using a template, for example, in the same manner as the detection of the face area described above.

顔認識部54は、顔特徴検出部53において顔領域から検出された特徴量と、記憶部16に記憶されている顔特徴情報16aとを照合することにより、顔領域検出部52により検出された顔領域の人物を特定する。   The face recognition unit 54 is detected by the face region detection unit 52 by collating the feature amount detected from the face region in the face feature detection unit 53 with the face feature information 16a stored in the storage unit 16. Identify the person in the face area.

顔重要度判断部55は、顔認識部54において特定された人物について、記憶部16に記憶されている人物重要度情報16bを参照することにより、メイン画像における当該人物の顔領域の重要度を求める。ここで、重要度が高い顔領域は、重要度が低い顔領域に比して、メイン画像においてサブ画像が重なることで隠れてしまう可能性が低い顔領域となる。逆に、重要度が低い顔領域は、重要度が高い顔領域に比して、メイン画像においてサブ画像が重なることで隠れてしまう可能性が高い顔領域となる。   The face importance level determination unit 55 refers to the person importance level information 16b stored in the storage unit 16 for the person specified by the face recognition unit 54, thereby determining the importance level of the person's face area in the main image. Ask. Here, a face area having a high importance level is a face area that is less likely to be hidden by overlapping sub-images in the main image than a face area having a low importance level. On the other hand, a face area with low importance is a face area that is more likely to be hidden by overlapping sub-images in the main image than a face area with high importance.

表示位置設定部56は、顔領域検出部52により検出された顔領域に基づいて、複数のサブ画像表示領域のうち、いずれのサブ画像表示領域にサブ画像を表示するのかを設定する。このとき、表示位置設定部56は、各サブ画像表示領域の優先度に基づいて、又は顔重要度判断部55において求めた顔領域の重要度等に基づいてサブ画像表示領域を設定することもある。   Based on the face area detected by the face area detection unit 52, the display position setting unit 56 sets which sub-image display area to display the sub-image in among the plurality of sub-image display areas. At this time, the display position setting unit 56 may set the sub image display region based on the priority of each sub image display region, or based on the importance of the face region obtained by the face importance determination unit 55. is there.

<画像表示装置の動作>
次に、本実施形態に係る画像表示装置の動作について説明する。
図3は、本実施形態に係る画像表示装置1の動作を示すフローチャートである。
<Operation of image display device>
Next, the operation of the image display apparatus according to this embodiment will be described.
FIG. 3 is a flowchart showing the operation of the image display apparatus 1 according to the present embodiment.

先ず、画像表示装置1は、メイン画像表示部51により、通信インターフェイス15を介して取得したメイン画像を表示部14に表示する(ステップS110)。なお、本フローチャートでは、メイン画像に人物が含まれる例について説明する。   First, the image display apparatus 1 displays the main image acquired via the communication interface 15 on the display unit 14 by the main image display unit 51 (step S110). In this flowchart, an example in which a person is included in the main image will be described.

次に、画像表示装置1は、顔領域検出部52により、ステップS110において表示されたメイン画像に含まれる全ての人物の顔領域を検出する(ステップS120)。   Next, in the image display apparatus 1, the face area detection unit 52 detects the face areas of all persons included in the main image displayed in step S110 (step S120).

次に、画像表示装置1は、メイン画像の領域内に表示する各サブ画像表示領域の表示位置・領域サイズ・優先度を記憶部16から取得する(ステップS130)。   Next, the image display device 1 acquires the display position, area size, and priority of each sub-image display area to be displayed in the main image area from the storage unit 16 (step S130).

図4は、メイン画像Mの領域内に表示する領域候補となる各サブ画像表示領域A,B,C,Dの例を示す図である。同図では、ステップS130において、各サブ画像表示領域A,B,C,Dの各表示位置(メイン画像Mの四隅)と、各領域サイズと、各サブ画像表示領域A,B,C,D間の優先度(A>B>C>D)を取得する。また、図5(a)〜(c)は、メイン画像Mに人物が含まれる例を示す図である。以降、図4及び図5を例にして説明を行う。   FIG. 4 is a diagram illustrating examples of the sub image display areas A, B, C, and D that are area candidates to be displayed in the area of the main image M. In the figure, in step S130, each display position (four corners of the main image M) of each sub image display area A, B, C, D, each area size, and each sub image display area A, B, C, D. Priority (A> B> C> D) is acquired. 5A to 5C are diagrams illustrating an example in which a person is included in the main image M. Hereinafter, description will be made with reference to FIGS. 4 and 5 as an example.

次に、画像表示装置1は、ステップS120において検出された顔領域が各サブ画像表示領域と重なるか否かを判定する(ステップS140)。ここでは、各サブ画像表示領域内に顔領域の顔座標が入っているか否かの判定を行っている。また、各サブ画像表示領域と比較する顔領域の顔座標は、メイン画像や、メイン画像を縮小した画像や、予め画像ファイルに埋め込まれているサムネイルに対して、人物の顔領域を検出して、その結果、得られた顔領域の顔座標を表示媒体の大きさに合わせて座標変換しても良い。また、メイン画像を縮小する際に表示媒体の大きさに縮小した画像を使って顔領域を検出し、得られた座標をそのまま使用しても良い。なお、顔領域は矩形や楕円などで表され、顔領域の顔座標とはそれらの内部の点の座標を指し、座標は画像の例えば左上の画素などの基準の点からの座標である。   Next, the image display device 1 determines whether or not the face area detected in step S120 overlaps each sub-image display area (step S140). Here, it is determined whether or not the face coordinates of the face area are included in each sub image display area. In addition, the face coordinates of the face area to be compared with each sub-image display area are detected by detecting the face area of a person from the main image, a reduced image of the main image, or a thumbnail embedded in the image file in advance. As a result, the face coordinates of the obtained face area may be coordinate-converted according to the size of the display medium. Further, when the main image is reduced, the face area may be detected using an image reduced to the size of the display medium, and the obtained coordinates may be used as they are. The face area is represented by a rectangle, an ellipse, or the like, and the face coordinates of the face area indicate the coordinates of the internal points, and the coordinates are coordinates from a reference point such as the upper left pixel of the image.

顔領域が各サブ画像表示領域のいずれにも重ならない場合(ステップS140:Yes)は、画像表示装置1は、表示位置設定部56により、初期位置のサブ画像表示領域を表示領域に設定する。そして、サブ画像表示部57により、サブ画像を表示して(ステップS160)、処理を終了する。図5(a)の例では、人物P1の顔領域は、サブ画像表示領域A,B,C,Dのいずれにも重なっていない。従って、初期位置のサブ画像表示領域Aにサブ画像が表示される。   When the face area does not overlap any of the sub image display areas (step S140: Yes), the image display apparatus 1 sets the sub image display area at the initial position as the display area by the display position setting unit 56. Then, the sub image display unit 57 displays the sub image (step S160), and the process is terminated. In the example of FIG. 5A, the face area of the person P1 does not overlap any of the sub-image display areas A, B, C, and D. Accordingly, the sub image is displayed in the sub image display area A at the initial position.

他方、顔領域が各サブ画像表示領域のいずれかにでも重なっている場合(ステップS140:No)は、画像表示装置1は、顔領域と重ならないサブ画像表示領域が少なくとも1つあるか否かを判定する(ステップS150)。   On the other hand, when the face area overlaps any of the sub image display areas (step S140: No), the image display apparatus 1 determines whether there is at least one sub image display area that does not overlap the face area. Is determined (step S150).

顔領域と重ならないサブ画像表示領域が少なくとも1つある場合(ステップS150:Yes)は、画像表示装置1は、表示位置設定部56により、顔領域と重ならないサブ画像表示領域の中から最も優先度の高いサブ画像表示領域を表示領域に設定する。そして、サブ画像表示部57により、サブ画像を表示して(ステップS170)、処理を終了する。図5(b)の例では、人物P1,P2の顔領域が、サブ画像表示領域B,Cには重なっていない。更に、サブ画像表示領域Bの方がサブ画像表示領域Cよりも優先度が高い。従って、サブ画像表示領域Bにサブ画像が表示される。   If there is at least one sub-image display area that does not overlap the face area (step S150: Yes), the image display device 1 uses the display position setting unit 56 to give the highest priority from the sub-image display areas that do not overlap the face area. A sub-image display area with a high degree is set as the display area. Then, the sub image display unit 57 displays the sub image (step S170), and the process is terminated. In the example of FIG. 5B, the face areas of the persons P1 and P2 do not overlap the sub image display areas B and C. Furthermore, the sub image display area B has a higher priority than the sub image display area C. Accordingly, the sub image is displayed in the sub image display area B.

他方、顔領域と重ならないサブ画像表示領域が1つもない場合、即ち全てのサブ画像表示領域にいずれかの顔領域が重なっている場合(ステップS150:No)は、次のステップS180へ進む。   On the other hand, if there is no sub-image display area that does not overlap with the face area, that is, if any face area overlaps with all the sub-image display areas (step S150: No), the process proceeds to the next step S180.

ステップS180では、画像表示装置1は、顔特徴検出部53により、各サブ画像表示領域に重なっている顔領域から特徴量を検出するために器官輪郭検出を行う(ステップS180)。そして、画像表示装置1は、顔認識部54及び顔重要度判断部55により、ステップS180において検出された各顔領域の特徴量と、記憶部16に記憶されている顔特徴情報16a及び人物重要度情報16bとに基づいて、各顔領域の顔認識を行い、メイン画像における各顔領域の重要度を求める(ステップS190)。   In step S180, the image display device 1 performs organ contour detection in order to detect a feature amount from the face area overlapping each sub-image display area by the face feature detection unit 53 (step S180). Then, the image display device 1 uses the face recognition unit 54 and the face importance degree determination unit 55 to detect the feature amount of each face area detected in step S180, the face feature information 16a stored in the storage unit 16, and the person importance. Based on the degree information 16b, face recognition of each face area is performed to determine the importance of each face area in the main image (step S190).

図5(c)の例では、サブ画像表示領域A,B,C,Dに人物P1,P2,P3,P11,P12のいずれかの顔領域が重なっている。このため、ステップS180において各人物P1,P2,P3,P11,P12の顔領域の特徴量を検出し、ステップS190において各人物P1,P2,P3,P11,P12の顔領域の重要度を求める。
図6は、顔特徴情報16a及び人物重要度情報16bに基づいた人物テーブルの例を示す図である。同図では、人物P1,P2,P3について、各人物の顔特徴情報となる特徴量T1,T2,T3、及び各人物の人物重要度情報となる重要度100,50,100が登録されている。また、該当しない人物については重要度10として登録されている。ステップS180において検出された人物P1,P2,P3,P11,P12の各顔領域の特徴量をそれぞれT1,T2,T3,T11,T12とすると、図6の人物テーブルの特徴量と比較することにより、人物P1,P2,P3,P11,P12の各顔領域の重要度100,50,100,10,10を求めることができる。
In the example of FIG. 5C, the face area of any one of the persons P1, P2, P3, P11, and P12 overlaps the sub-image display areas A, B, C, and D. For this reason, the feature amount of the face area of each person P1, P2, P3, P11, P12 is detected in step S180, and the importance of the face area of each person P1, P2, P3, P11, P12 is obtained in step S190.
FIG. 6 is a diagram illustrating an example of a person table based on the face feature information 16a and the person importance information 16b. In the figure, for persons P1, P2, and P3, feature amounts T1, T2, and T3 that are face characteristic information of each person and importance levels 100, 50, and 100 that are person importance level information of each person are registered. . In addition, the person who does not correspond is registered as the importance 10. When the feature amounts of the face regions of the persons P1, P2, P3, P11, and P12 detected in step S180 are T1, T2, T3, T11, and T12, respectively, by comparing with the feature amounts of the person table in FIG. The importance levels 100, 50, 100, 10, and 10 of the face regions of the persons P1, P2, P3, P11, and P12 can be obtained.

ステップS200では、画像表示装置1は、ステップS190において求めた各顔領域の重要度に基づいて、各サブ画像表示領域の重要度を算出する。ここでは、各サブ画像表示領域において、各サブ画像表示領域に重なる顔領域の重要度の総和をとることにより重要度を算出する。そして、画像表示装置1は、表示位置設定部56により、各サブ画像表示領域の中から最も重要度の低いサブ画像表示領域を表示領域に設定する。そして、サブ画像表示部57により、サブ画像を表示して(ステップS210)、処理を終了する。   In step S200, the image display device 1 calculates the importance of each sub-image display area based on the importance of each face area obtained in step S190. Here, in each sub image display area, the importance is calculated by taking the sum of the importance of the face area overlapping with each sub image display area. In the image display device 1, the display position setting unit 56 sets the sub image display area having the lowest importance among the sub image display areas as the display area. Then, the sub image display unit 57 displays the sub image (step S210), and the process ends.

図7は、各サブ画像表示領域の重要度を算出する例を示す図である。同図は、図5(c)及び図6の例における重要度の算出を示している。例えば、サブ画像表示領域Bでは、人物P11の顔領域のみが重なっており、人物P11の重要度10がサブ画像表示領域Bの重要度として算出される。また、サブ画像表示領域Cでは、人物P3,P12の顔領域が重なっており、人物P3,P12の重要度100,10の総和をとることにより、サブ画像表示領域Cの重要度110が算出される。そして、図7の例では、サブ画像表示領域Bの重要度が最も低いことから、サブ画像表示領域Bにサブ画像が表示される。   FIG. 7 is a diagram illustrating an example of calculating the importance of each sub image display area. This figure shows calculation of importance in the examples of FIGS. 5C and 6. For example, in the sub image display area B, only the face area of the person P11 overlaps, and the importance level 10 of the person P11 is calculated as the importance level of the sub image display area B. In the sub image display area C, the face areas of the persons P3 and P12 overlap, and the importance 110 of the sub image display area C is calculated by taking the sum of the importance 100 and 10 of the persons P3 and P12. The In the example of FIG. 7, since the importance of the sub image display area B is the lowest, the sub image is displayed in the sub image display area B.

上述した実施形態では、図5(c)の例のように全てのサブ画像表示領域にいずれかの顔領域が重なっている場合、各顔領域の特徴量を検出して顔認識を行なう。そして、各顔領域の重要度を基に各サブ画像表示領域の重要度を算出し、最も重要度の低いサブ画像表示領域にサブ画像を表示する。これにより、サブ画像は、メイン画像において重要となる人物の顔画像を避けて、あまり重要でない人物の顔画像に重なって表示されることになる。従って、顔が隠れるのを避けたい重要な人物については、予め画像表示装置1に登録することにより、サブ画像によって顔が隠れることなく見ることができる。   In the embodiment described above, when any face area overlaps all the sub-image display areas as in the example of FIG. 5C, face recognition is performed by detecting the feature amount of each face area. Then, the importance of each sub image display area is calculated based on the importance of each face area, and the sub image is displayed in the sub image display area having the lowest importance. As a result, the sub image is displayed so as to overlap the face image of the less important person, avoiding the face image of the important person in the main image. Therefore, an important person who wants to avoid hiding his face can be seen without being hidden by the sub-image by registering it in the image display device 1 in advance.

(変形例1)
上述した実施形態では、メイン画像の領域内における表示位置、領域サイズ及び優先度が定義された複数のサブ画像表示領域が設定されている。しかし、これに限られず、表示位置が可変であって領域サイズが固定の1つのサブ画像表示領域、又は表示位置及び領域サイズが共に可変の1つのサブ画像表示領域を設定してサブ画像を表示するようにしても良い。
(Modification 1)
In the embodiment described above, a plurality of sub-image display areas in which the display position, area size, and priority in the area of the main image are defined are set. However, the present invention is not limited to this, and a sub-image is displayed by setting one sub-image display area whose display position is variable and whose area size is fixed, or one sub-image display area whose display position and area size are both variable. You may make it do.

この場合、メイン画像から検出された顔領域と重ならない位置にサブ画像表示領域を設定する。ここで、メイン画像の顔領域のいずれかにサブ画像が重なってしまう場合、顔領域の重要度に基づいてサブ画像表示領域を設定する。また、領域サイズが可変であれば、領域サイズを縮小することにより顔領域と重ならないようにしても良い。これにより、メイン画像に表示された人物の顔画像とサブ画像とが重なるのを、更にきめ細かく防ぐことができる。   In this case, the sub image display area is set at a position that does not overlap with the face area detected from the main image. Here, if the sub image overlaps any of the face areas of the main image, the sub image display area is set based on the importance of the face area. If the region size is variable, the region size may be reduced so as not to overlap the face region. As a result, it is possible to prevent the face image of the person displayed in the main image and the sub image from overlapping each other more finely.

また、サブ画像表示領域の表示位置を、重要度の高い顔領域から遠い位置となるように設定しても良い。図8は、サブ画像表示領域の表示位置及び領域サイズを可変にした例を示す図である。同図に対して図6の人物テーブルを適用すると、人物P1,P3の顔領域の重要度が最も高くなる。従って、人物P1,P3の顔領域から最も遠い位置に、縮小されたサブ画像表示領域Eが設定されてサブ画像が表示される。これにより、メイン画像において重要な人物の顔を見るにあたって、例えばサブ画像が近くにあって気になる等の好ましくない影響を抑えることができる。   Further, the display position of the sub image display area may be set so as to be far from the face area having high importance. FIG. 8 is a diagram illustrating an example in which the display position and area size of the sub image display area are variable. When the person table of FIG. 6 is applied to the same figure, the importance of the face areas of the persons P1 and P3 becomes the highest. Accordingly, the reduced sub image display area E is set at a position farthest from the face areas of the persons P1 and P3, and the sub image is displayed. Thereby, when looking at the face of an important person in the main image, it is possible to suppress an undesirable effect such as anxiety that the sub-image is nearby.

(変形例2)
上述した実施形態では、サブ画像表示領域の重要度を算出する際、サブ画像表示領域に重なる顔領域の重要度の総和をとることにより算出している。しかし、これに限られず、重なる顔領域の重要度の平均値、重なる顔領域の中の最も高い重要度、重なる顔領域の面積又は重なっている面積部分の割合、重なる顔領域の人数等に基づいて、サブ画像表示領域の重要度を算出しても良い。また、これらの各要素とサブ画像表示領域の優先度とに重み付けを行って重要度を算出しても良い。
(Modification 2)
In the embodiment described above, when calculating the importance of the sub image display area, the calculation is performed by taking the sum of the importance of the face area overlapping the sub image display area. However, the present invention is not limited to this. Based on the average importance level of the overlapping face areas, the highest importance level of the overlapping face areas, the area of the overlapping face areas or the ratio of the overlapping area parts, the number of overlapping face areas, etc. Thus, the importance of the sub image display area may be calculated. Also, the importance may be calculated by weighting each of these elements and the priority of the sub-image display area.

(変形例3)
上述した実施形態では、人物毎に登録された重要度に従って顔領域の重要度を求めている。しかし、これに限られず、例えば、子供又は大人、男性又は女性などの識別を顔領域から検出し、これらの識別に基づいて、予め登録されている例えば子供優先や女性優先などの設定に従って顔領域の重要度を算出しても良い。
(Modification 3)
In the embodiment described above, the importance of the face area is obtained according to the importance registered for each person. However, the present invention is not limited to this. For example, identification of a child or adult, male or female is detected from the face area, and based on these identifications, the face area is pre-registered according to settings such as child priority or female priority. You may calculate the importance of.

1…画像表示装置、11…CPU、12…内部メモリー、13…操作部、14…表示部、15…通信インターフェイス、16…記憶部、16a…顔特徴情報、16b…人物重要度情報、51…メイン画像表示部、52…顔領域検出部、53…顔特徴検出部、54…顔認識部、55…顔重要度判断部、56…表示位置設定部、57…サブ画像表示部。   DESCRIPTION OF SYMBOLS 1 ... Image display apparatus, 11 ... CPU, 12 ... Internal memory, 13 ... Operation part, 14 ... Display part, 15 ... Communication interface, 16 ... Memory | storage part, 16a ... Face feature information, 16b ... Person importance information, 51 ... Main image display section 52... Face area detection section 53. Face feature detection section 54. Face recognition section 55 55 Face importance determination section 56 56 Display position setting section 57 57 Sub image display section

Claims (5)

メイン画像と、当該メイン画像に重なるサブ画像とを表示することが可能な画像表示装置であって、
前記メイン画像に表示された人物の顔領域を検出する顔領域検出部と、
前記検出された顔領域について、前記メイン画像における重要度を判断する顔重要度判断部と、
前記顔領域の重要度に基づいて、前記メイン画像における前記サブ画像の表示位置を設定する表示位置設定部と、を有することを特徴とする画像表示装置。
An image display device capable of displaying a main image and a sub image overlapping the main image,
A face area detection unit for detecting a face area of a person displayed in the main image;
A face importance determination unit for determining the importance in the main image for the detected face area;
An image display device comprising: a display position setting unit that sets a display position of the sub image in the main image based on the importance of the face area.
人物の顔画像の特徴量が登録された顔特徴情報及び当該顔特徴情報に対応する人物の重要度が登録された人物重要度情報を記憶する記憶部と、
前記顔領域検出部により検出された前記顔領域から特徴量を検出する顔特徴検出部と、
前記顔特徴検出部により検出された特徴量と前記記憶されている顔特徴情報とを照合することにより、前記顔領域の人物を特定する顔認識部と、を更に有し、
前記顔重要度判断部は、前記特定された人物に対応する前記記憶されている人物重要度情報に基づいて、前記顔領域の重要度を判断することを特徴とする請求項1に記載の画像表示装置。
A storage unit for storing face feature information in which the feature amount of a person's face image is registered and person importance information in which the importance of the person corresponding to the face feature information is registered;
A face feature detection unit that detects a feature amount from the face region detected by the face region detection unit;
A face recognition unit for identifying a person in the face region by comparing the feature amount detected by the face feature detection unit with the stored face feature information;
The image according to claim 1, wherein the face importance level determination unit determines the importance level of the face area based on the stored person importance level information corresponding to the identified person. Display device.
前記メイン画像の領域に、前記サブ画像を表示する候補領域となる複数のサブ画像表示領域が予め定義されていることを特徴とする請求項1又は2に記載の画像表示装置。   The image display device according to claim 1, wherein a plurality of sub-image display areas that are candidate areas for displaying the sub-image are defined in advance in the main image area. メイン画像と、当該メイン画像に重なるサブ画像とを表示することが可能な画像表示方法であって、
前記メイン画像に表示された人物の顔領域を検出する顔領域検出工程と、
前記検出された顔領域について、前記メイン画像における重要度を判断する顔重要度判断工程と、
前記顔領域の重要度に基づいて、前記メイン画像における前記サブ画像の表示位置を設定する表示位置設定工程と、を有することを特徴とする画像表示方法。
An image display method capable of displaying a main image and a sub-image overlapping the main image,
A face area detection step of detecting a face area of a person displayed in the main image;
A face importance level determining step of determining the importance level in the main image for the detected face area;
A display position setting step of setting a display position of the sub-image in the main image based on the importance of the face area.
メイン画像と、当該メイン画像に重なるサブ画像とを表示することが可能な画像表示プログラムであって、
前記メイン画像に表示された人物の顔領域を検出する顔領域検出機能と、
前記検出された顔領域について、前記メイン画像における重要度を判断する顔重要度判断機能と、
前記顔領域の重要度に基づいて、前記メイン画像における前記サブ画像の表示位置を設定する表示位置設定機能と、をコンピューターに実行させるための画像表示プログラム。
An image display program capable of displaying a main image and a sub image overlapping the main image,
A face area detection function for detecting a face area of a person displayed in the main image;
A face importance determination function for determining the importance in the main image for the detected face area;
An image display program for causing a computer to execute a display position setting function for setting a display position of the sub image in the main image based on the importance of the face area.
JP2009294058A 2009-12-25 2009-12-25 Apparatus, method and program for displaying image Withdrawn JP2011134173A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009294058A JP2011134173A (en) 2009-12-25 2009-12-25 Apparatus, method and program for displaying image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009294058A JP2011134173A (en) 2009-12-25 2009-12-25 Apparatus, method and program for displaying image

Publications (1)

Publication Number Publication Date
JP2011134173A true JP2011134173A (en) 2011-07-07

Family

ID=44346820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009294058A Withdrawn JP2011134173A (en) 2009-12-25 2009-12-25 Apparatus, method and program for displaying image

Country Status (1)

Country Link
JP (1) JP2011134173A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013050953A3 (en) * 2011-10-04 2013-09-12 Nokia Corporation Methods, apparatuses, and computer program products for restricting overlay of an augmentation

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013050953A3 (en) * 2011-10-04 2013-09-12 Nokia Corporation Methods, apparatuses, and computer program products for restricting overlay of an augmentation
US9418292B2 (en) 2011-10-04 2016-08-16 Here Global B.V. Methods, apparatuses, and computer program products for restricting overlay of an augmentation
TWI562097B (en) * 2011-10-04 2016-12-11 Here Global Bv Methods, apparatuses, and computer program products for restricting overlay of an augmentation

Similar Documents

Publication Publication Date Title
US7489307B2 (en) Handwritten information input apparatus
JP2011150225A (en) Image display device and image display method
JP5533837B2 (en) Handwriting input device and handwriting input control program
JP2016194799A (en) Image analyzer and image analysis method
JP2018506799A (en) How to guide users of portable electronic devices
US9225896B2 (en) Mobile terminal device, storage medium, and display control method
US9760274B2 (en) Information processing apparatus, information processing method, and computer-readable storage medium
US9129150B2 (en) Electronic apparatus and display control method
JP2002351603A (en) Portable information processor
US20150304566A1 (en) Display apparatus and image composition method thereof
KR102090973B1 (en) Information processing apparatus, information processing method, and storage medium
KR20140012757A (en) Facilitating image capture and image review by visually impaired users
JP2019087945A (en) Information processing apparatus, program, and information processing method
CN104766354B (en) The method and mobile terminal that a kind of augmented reality is drawn
JP2019109802A (en) Display device, image processing device and program
US10684772B2 (en) Document viewing apparatus and program
JP6229554B2 (en) Detection apparatus and detection method
JP2011134173A (en) Apparatus, method and program for displaying image
JP6156740B2 (en) Information display device, input information correction program, and input information correction method
JP2015228270A (en) Electronic device, electronic device control method, program, and storage medium
JP6607083B2 (en) Program and information processing apparatus
US9405998B2 (en) Display control apparatus, image forming apparatus, and non-transitory computer readable medium for displaying an image portion nearest a pointed blank portion
US10681228B2 (en) Display device, control method of display device, and program
JP2009205468A (en) Image output method, image output device and image output program
JP6973524B2 (en) program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130305