JP2006277038A - Image display method, image display device and program - Google Patents

Image display method, image display device and program Download PDF

Info

Publication number
JP2006277038A
JP2006277038A JP2005091880A JP2005091880A JP2006277038A JP 2006277038 A JP2006277038 A JP 2006277038A JP 2005091880 A JP2005091880 A JP 2005091880A JP 2005091880 A JP2005091880 A JP 2005091880A JP 2006277038 A JP2006277038 A JP 2006277038A
Authority
JP
Japan
Prior art keywords
image data
face
data
face data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005091880A
Other languages
Japanese (ja)
Inventor
Nobumasa Araki
伸昌 荒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Embedded Products Ltd
Original Assignee
NEC Embedded Products Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Embedded Products Ltd filed Critical NEC Embedded Products Ltd
Priority to JP2005091880A priority Critical patent/JP2006277038A/en
Publication of JP2006277038A publication Critical patent/JP2006277038A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain a display effect according to a user, who appreciates image data, and a display effects according to the information on a person photographed on image data. <P>SOLUTION: Face data included in image data configuring an image data group 1a managed by an image data registration management part 1 are recognized by a face recognizing part 3, and a layout area as an area where the face are arranged in the image data is detected. Also, the recognized face data are collated with face data 2a managed by a face data registration managing part 2 by the face recognizing part 3, and when the face data recognized by the face recognizing part 3 are included in the face data 2a managed by the face data registration managing part 2, the image data are displayed on a screen in secularly changing display configurations so as to display at least the layout area of the face data. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像データを画面上に表示する画像表示方法、画像表示装置及びプログラムに関する。   The present invention relates to an image display method, an image display device, and a program for displaying image data on a screen.

近年、デジタルカメラ等のデジタル機器の急速な普及に伴い、画像をデジタルデータとして表示して楽しむことが多くなってきている。その中の1つとして、デジタルカメラで画像を撮影し、撮影した画像をパソコンに取り込んで順に表示させていくスライドショー表示という技術が利用されている。   In recent years, with the rapid spread of digital devices such as digital cameras, images are often displayed and enjoyed as digital data. As one of them, a technique called slide show display is used in which images are taken with a digital camera, the taken images are taken into a personal computer and displayed in order.

このスライドショー表示は、パソコンに取り込まれた複数の画像データを一定時間毎にパソコン上に順に表示していくものであって、画像を切り替える際にトランジションと呼ばれる表示効果を付けたり、1枚の画像を表示している状態にてその画像内にてズーミング表示や移動表示(パン&ズーム)等を行ったりすることもでき、それにより、静止画像に動きをつけることができ、スライドショーを鑑賞しているユーザにとって、動きのある魅力的な画像表示を行うことができる。例えば、パソコンに取り込まれた1枚の画像の一部分を表示した状態から、表示する範囲を移動させて別の一部分を表示させたり、パソコンに取り込まれた1枚の画像の全体あるいは一部分を表示した状態から、その画像の表示範囲よりも狭い範囲を表示するようにズームインしたり、またその逆に、画像の一部分を表示した状態から、その画像の表示範囲よりも広い範囲を表示するようにズームアウトしたりすることができる。   In this slide show display, a plurality of image data captured in a personal computer is displayed on the personal computer in order at regular intervals. When switching images, a display effect called a transition is added, or one image is displayed. You can also perform zooming display and moving display (pan & zoom) etc. in the image while displaying the image, so that you can add motion to the still image and enjoy the slideshow It is possible to perform an attractive image display with movement for a user who is present. For example, from a state in which a part of one image captured on a personal computer is displayed, the display range is moved to display another part, or the whole or part of one image captured on a personal computer is displayed. From the state, zoom in to display a range narrower than the display range of the image, and vice versa, from the state of displaying a part of the image, zoom to display a range wider than the display range of the image Can be out.

ここで、上述したような表示効果においては、パソコンに取り込まれた画像データ毎にユーザが設定する場合や、パソコンにおいてランダムに設定する場合がある。ところが、表示効果をユーザが設定する場合はそのための手間がかかってしまう。また、その表示効果をパソコンにてランダムに設定する場合は、画像データに含まれる要素に無関係に表示効果が設定されるため、例えば、表示された画像のうち主要な被写体が写っていない領域にズームアップが行われてしまったり、複数の人物が写っている画像内において重要な人物が表示されなかったりしてしまい、表示効果が効果的に行われなくなってしまう。   Here, the display effect as described above may be set by the user for each image data captured in the personal computer or may be set randomly by the personal computer. However, when the user sets the display effect, it takes time and effort. In addition, when the display effect is set at random on a personal computer, the display effect is set regardless of the elements included in the image data. For example, in the displayed image, the main subject is not shown. Zooming up may be performed, or an important person may not be displayed in an image that includes a plurality of persons, and the display effect may not be effectively performed.

そこで、画像データをパソコン等に取り込む際に、画像データが撮影された時に画像データに関連付けて記録された撮影情報を取得し、この撮影情報に基づいて画像データの表示形態を選択し、選択された表示形態によって画像データを表示する技術が考えられている(例えば、特許文献1参照。)。この技術においては、デジタルカメラにおける画像撮影時に、撮影日時やカメラ機種名、撮影シーンモード、撮影時におけるファインダー内の焦点位置を示す焦点位置情報、ストロボ発光状態情報、被写体との距離を示す情報、ズーム状態情報等の撮影情報を画像データに関連付けて記録しておき、画像データをパソコン等にて表示する際にこれらの撮影情報に基づいた表示形態で表示し、それにより、画像データの表示効果を、画像の内容に応じたより効果的なものにすることができる。
特開2005−12674号公報
Therefore, when capturing the image data into a personal computer or the like, the shooting information recorded in association with the image data is acquired when the image data is shot, and the display mode of the image data is selected and selected based on the shooting information. A technique for displaying image data in accordance with a display form has been considered (see, for example, Patent Document 1). In this technology, when shooting an image with a digital camera, shooting date and time, camera model name, shooting scene mode, focus position information indicating the focus position in the viewfinder at the time of shooting, strobe lighting state information, information indicating the distance to the subject, Shooting information such as zoom state information is recorded in association with the image data, and when the image data is displayed on a personal computer or the like, it is displayed in a display form based on these shooting information, and thereby the display effect of the image data Can be made more effective in accordance with the contents of the image.
Japanese Patent Laid-Open No. 2005-12673

しかしながら、上述した特許文献1に記載された技術は、画像データの撮影時における撮影環境等によって画像データの表示形態が設定されてしまうため、その画像データを鑑賞するユーザに応じた表示効果を与えることができるものとは言い難い。   However, since the technique described in Patent Document 1 described above sets the display form of the image data depending on the shooting environment at the time of shooting the image data, the display effect according to the user who views the image data is given. It's hard to say that you can.

また、画像データに関連付けられる撮影情報は、撮影日時や撮影時の撮影装置の設定に関する情報であるため、例えば、画像データに写っている人物を特定し、その写っている人物の情報に応じた表示効果を与えるといったような、撮影情報からは判断できない画像データの内容に応じた表示効果を与えることができるものとは言い難い。   In addition, since the shooting information associated with the image data is information related to the shooting date and time and the setting of the shooting device at the time of shooting, for example, the person shown in the image data is identified and the information on the person shown in the image data It is difficult to say that a display effect according to the contents of image data that cannot be determined from the shooting information, such as a display effect, can be provided.

本発明は、上述したような従来の技術が有する問題点に鑑みてなされたものであって、画像データを鑑賞するユーザに応じた表示効果や画像データに写っている人物の情報に応じた表示効果を与えることができる画像表示方法、画像表示装置及びプログラムを提供することを目的とする。   The present invention has been made in view of the problems of the conventional techniques as described above, and has a display effect according to a user who appreciates image data and a display according to information of a person shown in the image data. An object of the present invention is to provide an image display method, an image display device, and a program capable of providing an effect.

上記目的を達成するために本発明は、
顔データを含む画像データを画面上に表示する画像表示装置であって、
前記顔データを認識し、前記画像データ内にて前記顔データが配置される領域となる配置領域を検出する顔認識手段と、
前記配置領域が少なくとも表示されるように経時的に変化する表示形態で前記画像データを表示する表示実行手段とを有する。
In order to achieve the above object, the present invention provides:
An image display device that displays image data including face data on a screen,
Face recognition means for recognizing the face data and detecting an arrangement area to be an area in which the face data is arranged in the image data;
Display execution means for displaying the image data in a display form that changes over time so that the arrangement area is displayed at least.

また、前記顔認識手段にて認識された顔データに応じて前記配置領域に重要度を設定する重要度設定手段と、
前記重要度が所定値以上となる配置領域を含む注目領域を設定する注目領域設定手段とを有し、
前記表示実行手段は、前記注目領域設定手段にて設定された注目領域が少なくとも表示されるように経時的に変化する表示形態で前記画像データを表示することを特徴とする。
Further, importance setting means for setting importance in the arrangement area according to face data recognized by the face recognition means;
An attention area setting means for setting an attention area including an arrangement area where the importance is equal to or greater than a predetermined value;
The display execution means displays the image data in a display form that changes with time so that at least the attention area set by the attention area setting means is displayed.

また、顔データを予め登録、管理する顔データ管理手段を有し、
前記顔認識手段は、前記認識された顔データと前記顔データ管理手段にて予め登録された顔データとを照合し、
前記重要度設定手段は、前記顔認識手段における照合の結果、前記認識された顔データと予め登録された顔データとが一致した場合、当該顔データの配置領域の重要度を高く設定することを特徴とする。
Also, it has face data management means for registering and managing face data in advance,
The face recognition means collates the recognized face data with face data registered in advance by the face data management means,
The importance setting means sets the importance of the arrangement area of the face data high when the recognized face data matches the pre-registered face data as a result of the collation in the face recognition means. Features.

また、前記顔データ管理手段は、少なくとも1つの画像データからなる画像データ群毎に、重要度を高く設定するための顔データを予め登録、管理することを特徴とする。   Further, the face data management means registers and manages face data for setting a high importance level in advance for each image data group composed of at least one image data.

また、前記顔データ管理手段にて予め登録された顔データのうち、表示される少なくとも1つの画像データからなる画像データ群に応じて配置領域の重要度を高くする顔データを選択する顔データ選択手段を有し、
前記重要度設定手段は、前記顔認識手段にて認識された顔データと前記顔データ選択手段にて選択された顔データとが一致した場合、当該顔データの配置領域の重要度を高く設定することを特徴とする。
Further, face data selection that selects face data that increases the importance of the arrangement area in accordance with an image data group composed of at least one image data to be displayed among the face data registered in advance by the face data management means. Having means,
The importance level setting unit sets the importance level of the arrangement area of the face data to be high when the face data recognized by the face recognition unit matches the face data selected by the face data selection unit. It is characterized by that.

また、前記重要度設定手段は、前記顔認識手段にて検出された配置領域の前記画像データにおける中心からの距離が近いほど、当該配置領域の重要度を高く設定することを特徴とする。   The importance level setting means sets the importance level of the arrangement area higher as the distance from the center of the image data of the arrangement area detected by the face recognition means is closer.

また、前記重要度設定手段は、前記顔認識手段にて検出された配置領域の大きさが大きいほど、当該配置領域の重要度を高く設定することを特徴とする。   Further, the importance level setting means sets the importance level of the arrangement area higher as the size of the arrangement area detected by the face recognition means is larger.

また、前記重要度設定手段は、少なくとも1つの画像データからなる画像データ群について前記顔認識手段にて認識された数が多い顔データの配置領域の重要度を高く設定することを特徴とする。   Further, the importance level setting means sets a high importance level of the arrangement area of the face data having a large number recognized by the face recognition means for an image data group composed of at least one image data.

また、表示される配置領域の大きさ及び前記画像データにおける位置に応じて前記表示形態の種類を設定する表示パターン設定手段を有することを特徴とする。   In addition, the display apparatus may further include a display pattern setting unit that sets a type of the display form in accordance with the size of the arrangement area to be displayed and the position in the image data.

また、表示される配置領域の大きさ、前記画像データにおける位置及び前記表示形態の種類に応じて、かつ、前記画像データの中心の領域が表示されるように、前記経時的に変化する表示形態の開始状態及び終了状態を設定する領域設定手段を有することを特徴とする。   Further, the display form that changes over time according to the size of the arrangement area to be displayed, the position in the image data, and the type of the display form, and so that the central area of the image data is displayed. It is characterized by having an area setting means for setting the start state and end state.

上記のように構成された本発明においては、画面上に表示すべき画像データが取り込まれると、まず、画像データに含まれる顔データが認識され、画像データ内にて顔データが配置される領域となる配置領域が検出される。そして、配置領域が少なくとも表示されるように経時的に変化する表示形態で画像データが画面上に表示されることになる。   In the present invention configured as described above, when image data to be displayed on the screen is captured, first, face data included in the image data is recognized, and the face data is arranged in the image data. An arrangement region is detected. Then, the image data is displayed on the screen in a display form that changes with time so that at least the arrangement area is displayed.

このようにして、画像データに含まれる顔データが認識され、その顔データが表示されるように経時的に変化する表示形態で画像データが表示されるので、表示される画像データに対して、その画像データを鑑賞するユーザに応じた表示効果を与えることができることができるとともに、画像データに写っている人物の情報に応じた表示効果を与えることができる。   In this way, the face data included in the image data is recognized, and the image data is displayed in a display form that changes over time so that the face data is displayed. A display effect according to a user who appreciates the image data can be given, and a display effect according to the information of a person shown in the image data can be given.

また、認識された顔データに応じて配置領域に重要度を設定し、重要度が所定値以上となる配置領域が少なくとも表示されるように経時的に変化する表示形態で画像データを表示すれば、画像データ内に複数の顔データが含まれている場合であっても、その中から主要となる顔データがメインとなるように画像データが表示されることになる。   Also, if the importance is set in the arrangement area in accordance with the recognized face data, and the image data is displayed in a display form that changes over time so that at least the arrangement area whose importance is equal to or higher than a predetermined value is displayed. Even when a plurality of face data are included in the image data, the image data is displayed so that the main face data is the main one.

また、認識された顔データと予め登録された顔データとを照合し、認識された顔データと予め登録された顔データとが一致した場合、その顔データの配置領域の重要度を高く設定すれば、例えば、家族や友人等、メインとして表示したい顔データを予め登録しておくことにより、その顔データがメインとなるように画像データが表示されることになる。   Also, when the recognized face data and the pre-registered face data are collated, and the recognized face data matches the pre-registered face data, the importance of the arrangement area of the face data should be set high. For example, by registering in advance face data to be displayed as a main, such as a family member or a friend, image data is displayed so that the face data becomes the main.

また、少なくとも1つの画像データからなる画像データ群毎に、重要度を高く設定するための顔データを予め登録、管理しておけば、表示される画像データ群毎に、メインとして表示される顔データを設定することができる。   Further, if face data for setting high importance is registered and managed in advance for each image data group composed of at least one image data, the face displayed as the main for each displayed image data group Data can be set.

また、予め登録された顔データのうち、表示される少なくとも1つの画像データからなる画像データ群に応じて配置領域の重要度を高くする顔データを選択し、認識された顔データと選択された顔データとが一致した場合、その顔データの配置領域の重要度を高く設定すれば、表示される画像データ群毎に、所望の顔データがメインとして表示されることになる。   In addition, face data that increases the importance of the arrangement area is selected from the face data registered in advance according to an image data group including at least one image data to be displayed, and the face data is selected as recognized face data. When the face data matches, if the importance of the arrangement area of the face data is set high, the desired face data is displayed as the main for each displayed image data group.

また、表示される配置領域の大きさ及び画像データにおける位置に応じて表示形態の種類を設定すれば、表示される配置領域に応じて適切な表示形態で画像データが表示されることになる。   If the type of display form is set according to the size of the displayed arrangement area and the position in the image data, the image data is displayed in an appropriate display form according to the arrangement area to be displayed.

以上説明したように本発明においては、画像データに含まれる顔データが認識されて画像データにおける顔データの配置領域が検出され、配置領域が少なくとも表示されるように経時的に変化する表示形態で画像データが画面上に表示される構成としたため、表示される画像データに対して、その画像データを鑑賞するユーザに応じた表示効果を与えることができるとともに、画像データに写っている人物の情報に応じた表示効果を与えることができる。   As described above, in the present invention, the face data included in the image data is recognized, the arrangement area of the face data in the image data is detected, and the display form changes with time so that the arrangement area is displayed at least. Since the image data is displayed on the screen, the displayed image data can have a display effect according to the user who views the image data, and information about the person in the image data can be displayed. The display effect according to can be given.

以下に、本発明の実施の形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(第1の実施の形態)
図1は、本発明の画像表示装置の第1の実施の形態を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a first embodiment of an image display apparatus of the present invention.

図1に示すように本形態においては、デジタルカメラ等にて撮影されたn個の画像データを取り込み、このn個の画像データを画像データ群1aとして登録、管理する画像データ登録管理部1と、取り込まれた画像データ群1aを用いてスライドショー表示を行う際に画像データ群1aを構成する画像データに含まれる他の被写体よりも重要度を高くして表示したい人物の顔データを取り込み、顔データ2aとして登録、管理する顔データ登録管理部2と、画像データ群1aを構成する画像データに含まれる顔データを認識し、画像データ内にてその顔データが配置される領域となる配置領域を検出し、さらに認識された顔データと顔データ登録管理部2にて管理されている顔データ2aとを比較照合する顔認識部3と、顔認識部3にて認識された顔データに応じてその配置領域に重要度を設定する重要度設定部4と、重要度設定部4にて設定された重要度に基づいて画像データ毎における注目領域を設定する注目領域設定部5と、注目領域設定部5にて設定された注目領域の大きさ及び画像データにおける位置に基づいて画像データの表示パターンを設定する表示パターン設定部6と、注目領域設定部5にて設定された注目領域と表示パターン設定部6にて設定された表示パターンに基づいて画像データ毎にその表示の開始状態となる表示開始領域とその表示の終了状態となる表示終了領域を設定する領域設定部7と、顔認識部3における認識結果や、重要度設定部4、注目領域設定部5、表示パターン設定部6及び領域設定部7における設定内容を記憶する記憶部11と、記憶部11に記憶された情報に基づいて、画像データ登録管理部1にて管理されている画像データ群1aを用いたスライドショーをディスプレイ等の表示部9にて実行する表示実行手段であるスライドショー実行部8と、これらを制御する制御部10とが設けられている。   As shown in FIG. 1, in this embodiment, an image data registration management unit 1 that takes in n pieces of image data captured by a digital camera or the like, and registers and manages the n pieces of image data as an image data group 1a. When the slide show display is performed using the captured image data group 1a, the facial data of the person who wants to display with higher importance than the other subjects included in the image data constituting the image data group 1a are captured, The face data registration management unit 2 registered and managed as data 2a and the face area included in the image data constituting the image data group 1a are recognized, and the placement area is the area in which the face data is placed. And the face recognition unit 3 for comparing and comparing the recognized face data with the face data 2a managed by the face data registration management unit 2 and the face recognition unit 3 An importance level setting unit 4 that sets the importance level in the arrangement area according to the face data, and an attention area setting that sets an attention area for each image data based on the importance level set by the importance level setting unit 4 Unit 5, display pattern setting unit 6 that sets a display pattern of image data based on the size of the region of interest and the position in the image data set by region of interest setting unit 5, and setting by region of interest setting unit 5 The area setting for setting the display start area to be the display start state and the display end area to be the display end state for each image data based on the set attention area and the display pattern set by the display pattern setting unit 6 A storage unit 11 for storing the recognition results in the unit 7, the recognition result in the face recognition unit 3, and the setting contents in the importance level setting unit 4, the attention area setting unit 5, the display pattern setting unit 6 and the area setting unit 7 11 is a slide show execution unit 8 which is a display execution unit for executing a slide show using the image data group 1a managed by the image data registration management unit 1 on the display unit 9 such as a display based on the information stored in the image data registration management unit 1. And the control part 10 which controls these is provided.

以下に、上記のように構成された画像表示装置における画像表示方法についてフローチャートを参照して説明する。   Hereinafter, an image display method in the image display apparatus configured as described above will be described with reference to flowcharts.

図2は、図1に示した画像表示装置における画像表示方法を説明するためのフローチャートである。   FIG. 2 is a flowchart for explaining an image display method in the image display apparatus shown in FIG.

まず、デジタルカメラ等にて撮影し、図1に示した画像表示装置においてスライドショー表示を行いたいn個の画像データを取り込んでおく。取り込まれたn個の画像データは、画像データ登録管理部1において画像データ群1aとして登録、管理される。   First, the image data is taken with a digital camera or the like, and n pieces of image data to be displayed as a slide show are captured in the image display apparatus shown in FIG. The acquired n pieces of image data are registered and managed as an image data group 1 a in the image data registration management unit 1.

また、この画像データ群1aを用いて画像表示装置にてスライドショー表示を行う際に、画像データ群1aを構成する画像データに含まれる他の被写体よりも重要度を高くして表示したい人物の顔データを取り込んでおく。取り込まれた顔データは、顔データ登録管理部2において顔データ2aとして登録、管理される。   Further, when performing a slide show display on the image display device using the image data group 1a, the face of a person who wants to display with higher importance than other subjects included in the image data constituting the image data group 1a. Capture the data. The fetched face data is registered and managed as face data 2a in the face data registration management unit 2.

その後、画像データ登録管理部1にて管理されている画像データ群1aを用いてのスライドショーの実行命令が入力されると(ステップS1)、制御部10において、顔認識部3に対して、画像データ登録管理部1にて管理されている画像データ群1aを取得し、この画像データ群1aを構成する画像データについて顔認識を実行する旨を示す命令が出力される。   After that, when an instruction to execute a slide show using the image data group 1a managed by the image data registration management unit 1 is input (step S1), the control unit 10 causes the face recognition unit 3 to input an image. An image data group 1a managed by the data registration management unit 1 is acquired, and a command indicating that face recognition is performed on the image data constituting the image data group 1a is output.

すると、顔認識部3において、画像データ登録管理部1にて管理されている画像データ群1aが取得され、まず、画像データ群1aを構成するn個の画像データのそれぞれについて、その画像データに含まれる顔データが認識されてその顔データが画像データ内にて配置される領域となる位置及び大きさが検出され、検出結果が記憶部11内の顔認識結果テーブル11bに記録される(ステップS2)。ここで、画像データ内の顔データの認識については、顔認識の公知の技術を用いて行われることになる。例えば、特開平7−311833号公報には、撮影した画像の輝度の特徴から人物の目と口の領域を検出し、それらの組み合わせによって顔の領域を検出する技術が開示されている。このような技術を用いて、n個の画像データのそれぞれについて顔データが認識されてその顔データが画像データ内にて配置される領域となる位置及び大きさが検出されることになる。また、顔認識結果テーブル11bの詳細については後述するが、認識された顔データの位置及び大きさは座標として検出され、その座標情報が配置領域として顔認識結果テーブル11bに記憶されることになる。   Then, the face recognition unit 3 acquires the image data group 1a managed by the image data registration management unit 1, and first, for each of the n pieces of image data constituting the image data group 1a, the image data is converted into the image data. The position and size of the face data included in the image data are detected by detecting the included face data, and the detection result is recorded in the face recognition result table 11b in the storage unit 11 (step). S2). Here, the recognition of the face data in the image data is performed using a known technique of face recognition. For example, Japanese Patent Application Laid-Open No. 7-31833 discloses a technique for detecting a human eye and mouth area from the luminance characteristics of a photographed image and detecting a face area by a combination thereof. Using such a technique, the face data is recognized for each of the n pieces of image data, and the position and size of the face data to be an area in the image data are detected. Although details of the face recognition result table 11b will be described later, the position and size of the recognized face data are detected as coordinates, and the coordinate information is stored as an arrangement area in the face recognition result table 11b. .

図3は、図1に示した顔認識部3における認識結果を示す図である。   FIG. 3 is a diagram showing a recognition result in the face recognition unit 3 shown in FIG.

図3に示すように、顔認識部3においては、取得された画像データ群1aを構成するn個の画像データのそれぞれについて、その画像データにそれぞれ含まれる顔データが認識され、画像データにおける顔データの配置領域が検出されることになる。   As shown in FIG. 3, the face recognition unit 3 recognizes the face data included in the image data for each of the n pieces of image data constituting the acquired image data group 1a, and the face in the image data A data arrangement area is detected.

次に、画像データ内にて認識された顔データについて、顔検出人物テーブル11aに既に記録されているかどうかが照合される(ステップS3)。顔検出人物テーブル11aについては、その詳細は後述するが、顔認識部3にて既に認識された顔データが記録されており、顔認識部3においては、画像データ内にて認識した顔データと顔検出人物テーブル11aに記録された顔データとを比較照合することによって、画像データ内にて認識された顔データが顔検出人物テーブル11aに既に記録されているかどうかを照合することになる。また、このような顔データの比較照合についても、顔照合の公知の技術を用いて行うことが考えられる。例えば、特開2001−283224号公報には、3次元の顔データを登録しておき、問い合わせ画像とその撮影条件が入力された場合に、撮影条件に基づいて3次元データから照合用画像を生成し、その照合用画像と問い合わせ画像とを比較することにより顔照合を行う技術が開示されている。この技術を用いれば、画像データ内にて認識された顔データがいかなる角度から撮影されたものであっても、画像データ内にて認識された顔データと顔検出人物テーブル11aに登録された顔データとが同一人物のものである場合、画像データ内にて認識された顔データが顔検出人物テーブル11aに既に記録されているものであるものとして認識することができる。   Next, it is checked whether or not the face data recognized in the image data has already been recorded in the face detection person table 11a (step S3). Although details of the face detection person table 11a will be described later, face data already recognized by the face recognition unit 3 is recorded, and the face recognition unit 3 stores the face data recognized in the image data. By comparing and collating with the face data recorded in the face detection person table 11a, it is verified whether the face data recognized in the image data has already been recorded in the face detection person table 11a. Further, it is conceivable to perform such face data comparison and collation using a known technique of face collation. For example, in Japanese Patent Laid-Open No. 2001-283224, three-dimensional face data is registered, and when an inquiry image and its photographing conditions are input, a verification image is generated from the three-dimensional data based on the photographing conditions. However, a technique for performing face matching by comparing the matching image and the inquiry image is disclosed. If this technology is used, even if the face data recognized in the image data is taken from any angle, the face data recognized in the image data and the face registered in the face detection person table 11a are used. If the data is that of the same person, it can be recognized that the face data recognized in the image data is already recorded in the face detection person table 11a.

画像データ内にて認識された顔データが顔検出人物テーブル11aに既に記録されているかどうかが照合された結果、画像データ内にて認識された顔データが顔検出人物テーブル11aに既に記録されている場合は(ステップS4)、顔検出人物テーブル11aにてその顔データの人物について顔データが認識された画像データの数が1だけ増加される(ステップS5)。   As a result of collating whether the face data recognized in the image data has already been recorded in the face detection person table 11a, the face data recognized in the image data has already been recorded in the face detection person table 11a. If it is present (step S4), the number of image data whose face data is recognized for the person of the face data in the face detection person table 11a is increased by 1 (step S5).

一方、画像データ内にて認識された顔データが顔検出人物テーブル11aにまだ記録されていない場合は、顔認識部3において、画像データ内にて認識された顔データが顔検出人物テーブル11aに記録される(ステップS6)。その際、その顔データの人物について顔データが認識された画像データの数が「1」に設定される。   On the other hand, when the face data recognized in the image data is not yet recorded in the face detection person table 11a, the face data recognized in the image data is stored in the face detection person table 11a in the face recognition unit 3. It is recorded (step S6). At that time, the number of image data whose face data is recognized for the person of the face data is set to “1”.

次に、顔認識部3において、顔データ登録管理部2にて管理されている顔データ2aが取得され、画像データ内にて認識された顔データが、顔データ登録管理部2にて管理されている顔データ2aに含まれる顔データであるかが照合される(ステップS7)。なお、顔データ2aは、少なくとも1つの顔データからなるものであって、複数の顔データからなる場合は、それら複数の顔データの全てに対して画像データ内にて認識された顔データとの照合が行われ、画像データ内にて認識された顔データが、顔データ登録管理部2にて管理されている顔データ2aに含まれる顔データであるかが照合されることになる。   Next, in the face recognition unit 3, the face data 2a managed by the face data registration management unit 2 is acquired, and the face data recognized in the image data is managed by the face data registration management unit 2. It is checked whether the face data is included in the face data 2a (step S7). Note that the face data 2a is composed of at least one face data. When the face data 2a is composed of a plurality of face data, the face data recognized with respect to the face data recognized in the image data for all of the plurality of face data. Collation is performed, and whether the face data recognized in the image data is face data included in the face data 2a managed by the face data registration management unit 2 is collated.

画像データ内にて認識された顔データが、顔データ登録管理部2にて管理されている顔データ2aに含まれる顔データであるかが照合された結果、画像データ内にて認識された顔データが、顔データ登録管理部2にて管理されている顔データ2aに含まれる顔データである場合、その旨が顔検出人物テーブル11aに記録される(ステップS8)。   As a result of collating whether the face data recognized in the image data is the face data included in the face data 2a managed by the face data registration management unit 2, the face recognized in the image data If the data is face data included in the face data 2a managed by the face data registration management unit 2, that fact is recorded in the face detection person table 11a (step S8).

図4は、図1に示した顔検出人物テーブル11aの一例を示す図である。   FIG. 4 is a diagram illustrating an example of the face detection person table 11a illustrated in FIG.

図4に示すように、本形態における顔検出人物テーブル11aにおいては、顔認識部3にて認識された顔データの人物を識別するための識別情報(A,B,C,D,・・・)と、画像データ群1aを構成するn個の画像データのうちその顔データが認識された画像データの数と、その顔データが顔データ登録管理部2にて管理されている顔データ2aに含まれる顔データであった場合にその旨を示す情報とが記録されている。なお、図4に示した顔検出人物テーブル11aには、顔認識部3にて認識された顔データが顔データ登録管理部2にて管理されている顔データ2aに含まれる顔データである旨を示す情報として、その顔データの人物の氏名が記録されている。これは、顔データ登録管理部2にて管理されている顔データ2aには、取り込まれた顔データに対応づけてその顔データの人物の氏名が含まれており、それにより、顔認識部3にて認識された顔データが顔データ登録管理部2にて管理されている顔データ2aに含まれる顔データである場合、その顔データによって人物の氏名が特定されることになる。   As shown in FIG. 4, in the face detection person table 11a in this embodiment, identification information (A, B, C, D,...) For identifying a person of face data recognized by the face recognition unit 3 is used. ), The number of image data in which the face data is recognized among n pieces of image data constituting the image data group 1a, and the face data 2a managed by the face data registration management unit 2 When it is included face data, information indicating that is recorded. In the face detection person table 11a shown in FIG. 4, the face data recognized by the face recognition unit 3 is face data included in the face data 2a managed by the face data registration management unit 2. As the information indicating, the name of the person of the face data is recorded. This is because the face data 2a managed by the face data registration management unit 2 includes the name of the person of the face data in association with the captured face data, whereby the face recognition unit 3 If the face data recognized in step (b) is face data included in the face data 2a managed by the face data registration management unit 2, the name of the person is specified by the face data.

その後、顔認識部3において、画像データ内にて認識されてその位置と大きさが顔認識結果テーブル11bに記録された顔データについて、顔検出人物テーブル11aにてこの顔データの人物を識別するために付与された識別情報(A,B,C,D,・・・)が顔認識結果テーブル11bにも記録される(ステップS9)。   Thereafter, the face recognition unit 3 identifies the person of the face data in the face detection person table 11a for the face data that is recognized in the image data and whose position and size are recorded in the face recognition result table 11b. Therefore, the identification information (A, B, C, D,...) Given for this purpose is also recorded in the face recognition result table 11b (step S9).

顔認識部3においては、画像データ登録管理部1にて管理される画像データ群1aを構成するn個の画像データの全てについて上述した処理が終了すると(ステップS10)、その旨が制御部10に通知される。   In the face recognition unit 3, when the above-described processing is completed for all n pieces of image data constituting the image data group 1 a managed by the image data registration management unit 1 (step S <b> 10), this is indicated by the control unit 10. Will be notified.

次に、制御部10において、重要度設定部4に対して、顔検出テーブル11a及び顔認識結果テーブル11bに記録された情報に基づいて、画像データに含まれる顔データの配置領域のそれぞれについて重要度を設定する旨の命令が出力される。   Next, in the control unit 10, the importance setting unit 4 is important for each of the arrangement areas of the face data included in the image data based on the information recorded in the face detection table 11a and the face recognition result table 11b. A command to set the degree is output.

すると、重要度設定部4において、顔検出人物テーブル11aが参照され、顔が認識された人物(A,B,C,D,・・・)のそれぞれについて、画像データ群1aのうちその顔データが含まれる画像データの数と、その顔データが顔データ2aとして登録されている顔データであるかどうかとが認識され、また、顔認識結果テーブル11bが参照され、画像データに含まれる顔データのそれぞれについて、その顔データの配置領域の大きさと、その顔データ配置領域の画像データにおける中心からの距離と、その顔データが顔検出人物テーブル11aに登録されている人物(A,B,C,D,・・・)のいずれのものであるかとが認識される。そして、重要度設定部4において、顔データが含まれる画像データの数と、その顔が顔データ2aとして登録されている顔であるかどうかと、その顔データの配置領域の大きさと、その顔データの配置領域の画像データにおける中心からの距離との4つのパラメータに基づいて、n個の画像データに含まれる顔データのそれぞれについてその顔の配置領域の重要度が計算される(ステップS11)。なお、この4つのパラメータのそれぞれについては、顔データが含まれる画像データの数が多ければ多いほど重要度が高く設定され、また、顔データ2aとして登録されている顔データは顔データ2aとして登録されていない顔よりも重要度が高く設定され、また、顔データの配置領域の大きさが大きければ大きいほど重要度が高く設定され、また、顔データの配置領域の画像データにおける中心からの距離が近ければ近いほど重要度が高く設定されている。また、この4つのパラメータによる重要度の計算は、例えば、上述した4つのパラメータのそれぞれに重み付けを行い、重み付けされた4つのパラメータを加算することによって行うことが考えられる。その場合、4つのパラメータを重み付けするための重み付け係数は、重要度設定部4にて予め設定されていることが考えられるが、ユーザ毎に、4つのパラメータのうち重要視したいパラメータの重み係数が大きくなるように外部から設定可能とすることも考えられる。例えば、ステップS1にてスライドショー実行命令が入力された場合に、4つのパラメータについて重み付け係数を入力あるいは選択可能な画面を表示部9に表示し、この画面にてユーザが4つのパラメータについての重み付け係数を入力あるいは選択し、その重み付け係数を重要度設定部4にて設定しておくことが考えられる。   Then, in the importance setting unit 4, the face detection person table 11a is referred to, and for each person (A, B, C, D,...) Whose face is recognized, the face data in the image data group 1a. And the face data included in the image data by referring to the face recognition result table 11b and recognizing whether the face data is the face data registered as the face data 2a. , The size of the face data placement area, the distance from the center of the face data placement area in the image data, and the person (A, B, C) whose face data is registered in the face detection person table 11a. , D,...) Is recognized. Then, in the importance setting unit 4, the number of image data including face data, whether the face is a face registered as face data 2a, the size of the face data arrangement area, and the face Based on the four parameters such as the distance from the center in the image data of the data arrangement area, the importance of the face arrangement area is calculated for each of the face data included in the n pieces of image data (step S11). . For each of the four parameters, the greater the number of image data including face data, the higher the importance is set, and the face data registered as face data 2a is registered as face data 2a. The importance is set higher than the face that has not been set, and the larger the size of the face data arrangement area, the higher the importance is set, and the distance from the center of the image data of the face data arrangement area The closer the is, the higher the importance is set. In addition, the importance calculation using the four parameters may be performed, for example, by weighting each of the four parameters described above and adding the four weighted parameters. In this case, the weighting coefficients for weighting the four parameters may be set in advance by the importance setting unit 4, but for each user, the weighting coefficient of the parameter to be regarded as important among the four parameters is determined. It may be possible to set from the outside so as to increase. For example, when a slide show execution command is input in step S1, a screen on which the weighting coefficients can be input or selected for the four parameters is displayed on the display unit 9, and the user can select the weighting coefficients for the four parameters on this screen. Is input or selected, and the weighting coefficient is set in the importance setting unit 4 in advance.

ステップS11にて計算された重要度は、顔認識結果テーブル11bに記録される(ステップS12)。これにより、重要度設定部4にて、画像データに含まれる顔データの配置領域のそれぞれについて重要度が設定されることになる。   The importance calculated in step S11 is recorded in the face recognition result table 11b (step S12). As a result, the importance level setting unit 4 sets the importance level for each of the arrangement areas of the face data included in the image data.

図5は、図1に示した顔認識結果テーブル11bの一例を示す図である。   FIG. 5 is a diagram illustrating an example of the face recognition result table 11b illustrated in FIG.

図5に示すように、本形態における顔認識結果テーブル11bにおいては、画像データに含まれる顔データの配置領域毎に、ステップS2にて検出された位置や大きさ、ステップS4〜S9にて記録された識別情報(A,B,C,D,・・・)、並びにステップS11にて計算された重要度が記録されている。ここで、配置領域の位置(x,y)は、画像データの左上の頂点を(0,0)とし、右方向にx軸、下方向にy軸が伸びる座標情報で表され、配置領域の左上の頂点の座標が記録されている。   As shown in FIG. 5, in the face recognition result table 11b in the present embodiment, the position and size detected in step S2 and the recording in steps S4 to S9 for each face data arrangement area included in the image data. The recorded identification information (A, B, C, D,...) And the importance calculated in step S11 are recorded. Here, the position (x, y) of the arrangement area is represented by coordinate information in which the upper left vertex of the image data is (0, 0), the x axis extends to the right, and the y axis extends downward. The coordinates of the top left vertex are recorded.

重要度設定部4においては、画像データ群1aを構成するn個の画像データのそれぞれに含まれる顔データの配置領域毎の重要度の顔認識結果テーブル11bへの記録が終了すると、その旨が制御部10に通知される。   When the importance level setting unit 4 finishes recording the importance level in the face recognition result table 11b for each arrangement area of the face data included in each of the n pieces of image data constituting the image data group 1a, this is indicated. The control unit 10 is notified.

次に、制御部10において、注目領域設定部5に対して、顔認識結果テーブル11bに記録された情報に基づいて、画像データ毎に注目領域を決定する旨の命令が出力される。   Next, the control unit 10 outputs a command to the attention area setting section 5 to determine the attention area for each image data based on the information recorded in the face recognition result table 11b.

すると、注目領域設定部5において、顔認識結果テーブル11bが参照され、画像データ毎に、顔認識結果テーブル11bに記録された顔データの配置領域の位置及び大きさ、並びに重要度に基づいて、注目領域が決定される(ステップS13)。具体的には、まず、画像データ毎に、最も重要度が高い顔データの配置領域が認識され、その重要度に対して一定割合(例えば、最も高い重要度の80%)以上の重要度を有する顔データの配置領域を含む範囲が注目領域として設定される。なお、顔データのそれぞれについては、その顔の位置(始点)及び大きさがそれぞれ記録されているため、これらの情報から顔データの配置領域、すなわち顔データが含まれる範囲が特定されることになる。また、この注目領域に含める顔データの配置領域の重要度の範囲についても、上述した重み付け係数と同様に外部から設定可能とすることや、注目領域設定部5にて固定して設定しておくことが考えられ、最も重要度が高い顔データの配置領域のみを含む範囲を注目領域として決定することも考えられる。   Then, the attention area setting unit 5 refers to the face recognition result table 11b, and for each image data, based on the position and size of the face data arrangement area recorded in the face recognition result table 11b and the importance, A region of interest is determined (step S13). Specifically, first, for each image data, the arrangement area of the face data having the highest importance is recognized, and the importance of a certain ratio (for example, 80% of the highest importance) or more is given to the importance. A range including the face data arrangement area is set as the attention area. For each face data, the position (starting point) and size of the face are recorded. Therefore, the arrangement area of the face data, that is, the range including the face data is specified from these pieces of information. Become. Further, the importance range of the arrangement area of the face data included in the attention area can be set from the outside as in the case of the above-described weighting coefficient, or is fixedly set by the attention area setting section 5. It is also conceivable that a range including only the arrangement area of the face data having the highest importance is determined as the attention area.

また、この際、顔認識結果テーブル11bに記録された顔データの配置領域の位置及び大きさから特定される範囲をそのまま注目領域として設定するのではなく、特定された範囲を予め決められた割合だけ拡張して注目領域としてもよい。例えば、特定された範囲の上下左右を0.2倍ずつ拡張して顔データの周囲も表示されるようにしたり、画像データ内にて特定された範囲の下方にその範囲の上下方向の長さの2倍以上のスペースがある場合、そのスペースに人物の体が含まれていると判断し、特定された範囲をその下方向に、上下方向の長さの1倍分拡張して体の一部も表示されるようにしたりすることが考えられる。   At this time, the range specified from the position and size of the arrangement area of the face data recorded in the face recognition result table 11b is not set as the attention area as it is, but the specified range is determined in a predetermined ratio. It may be expanded as a region of interest. For example, the specified range is expanded by 0.2 times in the vertical and horizontal directions so that the periphery of the face data is displayed, or the vertical length of the range is displayed below the specified range in the image data. If there is more than twice the space, it is determined that the person's body is included in the space, and the specified range is expanded downward by 1 times the vertical length. It is conceivable that the part is also displayed.

ステップS13にて設定された注目領域は、記憶部11内のパターン管理テーブル11cに記録される(ステップS14)。なお、パターン管理テーブル11cの詳細については後述するが、設定された注目領域についても、その座標情報がパターン管理テーブル11cに記憶されることになる。   The attention area set in step S13 is recorded in the pattern management table 11c in the storage unit 11 (step S14). Although details of the pattern management table 11c will be described later, the coordinate information of the set attention area is also stored in the pattern management table 11c.

注目領域設定部5においては、画像データ群1aを構成するn個の画像データのそれぞれについての注目領域のパターン管理テーブル11cへの記録が終了すると、その旨が制御部10に通知される。   In the attention area setting section 5, when the recording of the attention area in the pattern management table 11c for each of the n pieces of image data constituting the image data group 1a is completed, the control section 10 is notified of this.

次に、制御部10において、表示パターン設定部6に対して、パターン管理テーブル11cに記録された情報に基づいて、画像データ毎に表示パターンを決定する旨の命令が出力される。   Next, the control unit 10 outputs a command for determining a display pattern for each image data to the display pattern setting unit 6 based on the information recorded in the pattern management table 11c.

すると、表示パターン設定部6において、パターン管理テーブル11cが参照され、画像データ毎に、パターン管理テーブル11cに記録された注目領域の位置及び大きさに基づいて、どのような表示パターンを行うかが決定される(ステップS15)。ここで、表示パターン設定部6にて決定される表示パターンとしては、画像データの一部分を表示した状態から、表示する範囲を横方向あるいは縦方向に移動させて別の一部分を表示させるパンや、画像データの全体あるいは一部分を表示した状態から、その画像の表示範囲よりも狭い範囲を表示させるズームインや、画像データの一部分を表示した状態から、その画像の表示範囲よりも広い範囲を表示させるズームアウト等といった、表示される画像データが経時的に変化する表示形態が設定されている。   Then, the display pattern setting unit 6 refers to the pattern management table 11c, and what display pattern is to be performed based on the position and size of the attention area recorded in the pattern management table 11c for each image data. It is determined (step S15). Here, as a display pattern determined by the display pattern setting unit 6, from a state in which a part of the image data is displayed, a pan in which the display range is moved in the horizontal direction or the vertical direction to display another part, Zoom in to display a range that is narrower than the display range of the image from a state where all or part of the image data is displayed, or Zoom to display a range that is wider than the display range of the image from a state where a part of the image data is displayed A display form is set such that the displayed image data changes with time, such as “out”.

この表示パターンの決定は、例えば以下のような方法で行われる。なお、表示パターンの決定方法は以下に限定されず、他の方法で行ってもよい。   The display pattern is determined by the following method, for example. The method for determining the display pattern is not limited to the following, and other methods may be used.

例えば、画像データが横長で注目領域に複数の顔が並んでいる場合、注目領域の横方向の長さが画像データの横方向の長さの1/2以上であれば、横方向に広がって顔データが並んでいると判断され、表示パターンが横方向のパンに設定される。また、注目領域の横方向の長さが画像データの横方向の長さの1/2未満である場合は、注目領域の縦方向の長さが横方向の長さの1.5倍よりも長ければ縦方向に広がって顔データが並んでいると判断され、表示パターンが縦方向のパンに設定され、それ以外の場合は表示パターンがズームに設定される。   For example, when the image data is horizontally long and a plurality of faces are arranged in the attention area, if the horizontal length of the attention area is ½ or more of the horizontal length of the image data, the image data spreads in the horizontal direction. It is determined that the face data are arranged, and the display pattern is set to horizontal pan. Further, when the horizontal length of the attention area is less than ½ of the horizontal length of the image data, the vertical length of the attention area is more than 1.5 times the horizontal length. If it is long, it is determined that the face data is arranged in the vertical direction, and the display pattern is set to the vertical pan. Otherwise, the display pattern is set to zoom.

また、画像データが縦長で注目領域に複数の顔が並んでいる場合、注目領域の縦方向の長さが画像データの縦方向の長さの1/2以上であれば、縦方向に広がって顔データが並んでいると判断され、表示パターンが縦方向のパンに設定される。また、注目領域の縦方向の長さが画像データの縦方向の長さの1/2未満である場合は、注目領域の横方向の長さが画像データの横方向の長さの1/2以上であれば、横方向に広がって顔データが並んでいると判断され、表示パターンを縦方向のパンに設定される。また、注目領域の縦方向の長さ及び横方向の長さがそれぞれ画像データの縦方向の長さ及び横方向の長さの1/2未満の場合は、表示パターンがズームに設定される。   Further, when the image data is vertically long and a plurality of faces are arranged in the attention area, if the vertical length of the attention area is ½ or more of the vertical length of the image data, it spreads in the vertical direction. It is determined that the face data are arranged, and the display pattern is set to vertical pan. When the vertical length of the attention area is less than ½ of the vertical length of the image data, the horizontal length of the attention area is ½ of the horizontal length of the image data. If it is above, it is judged that the face data is arranged in the horizontal direction, and the display pattern is set to the vertical pan. When the vertical length and the horizontal length of the attention area are less than ½ of the vertical length and the horizontal length of the image data, respectively, the display pattern is set to zoom.

また、画像データが横長で注目領域に単数の顔データしか存在しない場合、注目領域の縦方向の長さが画像データの縦方向の長さの3/4以上であれば、大きな顔データが含まれている画像データと判断され、表示パターンが横方向のパンに設定される。また、注目領域の縦方向の長さが画像データの縦方向の長さの3/4未満の場合は、表示パターンがズームに設定される。   If the image data is horizontally long and only a single face data exists in the attention area, large face data is included if the vertical length of the attention area is 3/4 or more of the vertical length of the image data. The display pattern is set to horizontal panning. If the vertical length of the attention area is less than 3/4 of the vertical length of the image data, the display pattern is set to zoom.

また、画像データが縦長で注目領域に単数の顔データしか存在しない場合、注目領域の縦方向の長さが画像データの縦方向の長さの1/2以上であれば、大きな顔データが含まれている画像データと判断され、表示パターンが縦方向のパンに設定される。また、注目領域の縦方向の長さが画像データの縦方向の長さの1/2未満の場合は、表示パターンがズームに設定される。   In addition, when the image data is vertically long and only a single face data exists in the attention area, large face data is included if the length of the attention area in the vertical direction is 1/2 or more of the vertical length of the image data. The display pattern is set to the vertical pan. When the vertical length of the attention area is less than ½ of the vertical length of the image data, the display pattern is set to zoom.

なお、表示パターンが横方向のパンの場合、表示領域が画像データの左側から右側に移動するパターンと、その逆に右側から左側に移動するパターンとがあるが、これは乱数を用いてランダムに決める等の方法が考えられる。同様に、縦方向のパンの場合は上側から下側と下側から上側、ズームの場合はズームインとズームアウトとがそれぞれあるが、それらの表示パターンについてもランダムに決める等の方法が考えられる。   If the display pattern is pan in the horizontal direction, there are patterns in which the display area moves from the left side to the right side of the image data, and vice versa, but this pattern is randomized using random numbers. A method such as deciding is conceivable. Similarly, in the case of a vertical pan, there are an upper side to a lower side and a lower side to an upper side, and in the case of a zoom, there are zoom in and zoom out, respectively, and the display pattern can be determined at random.

ステップS15にて決定された表示パターンは、画像データ毎にパターン管理テーブル11cに記録される(ステップS16)。   The display pattern determined in step S15 is recorded in the pattern management table 11c for each image data (step S16).

表示パターン設定部6においては、画像データ群1aを構成するn個の画像データのそれぞれについての表示パターンのパターン管理テーブル11cへの記録が終了すると、その旨が制御部10に通知される。   When the display pattern setting unit 6 finishes recording the display pattern in the pattern management table 11c for each of the n pieces of image data constituting the image data group 1a, the display pattern setting unit 6 notifies the control unit 10 to that effect.

次に、制御部10において、領域設定部7に対して、パターン管理テーブル11cに記録された情報に基づいて、画像データ毎にその表示開始領域と表示終了領域を設定する旨の命令が出力される。   Next, the control unit 10 outputs a command for setting the display start region and the display end region for each image data to the region setting unit 7 based on the information recorded in the pattern management table 11c. The

すると、領域設定部7において、パターン管理テーブル11cが参照され、画像データ毎に、パターン管理テーブル11cに記録された注目領域の位置及び大きさ、並びに表示パターンに基づいて、注目領域が表示されるようにその表示開始領域と表示終了領域が設定される(ステップS17)。また、注目領域が画像データの端の方に存在する場合であっても、その画像データの中央付近に人物以外の中心となる被写体が写っているものと考えられるため、表示パターンに従って画像データを表示している最中にて画像データの中央の領域(以下、センター領域と称する)が表示されるようにその表示開始領域と表示終了領域が設定される。   Then, the area setting unit 7 refers to the pattern management table 11c and displays the attention area for each image data based on the position and size of the attention area recorded in the pattern management table 11c and the display pattern. Thus, the display start area and the display end area are set (step S17). Even if the region of interest is near the edge of the image data, it is considered that a subject other than a person is captured near the center of the image data. The display start area and the display end area are set so that the center area of the image data (hereinafter referred to as the center area) is displayed during the display.

例えば、画像データの縦方向及び横方向をそれぞれ3等分し、それぞれの中央部分となる領域をセンター領域として定義する。そして、表示パターンがパンの場合は、表示開始領域と表示終了領域及びその軌跡により注目領域及びセンター領域が含まれるように、表示開始領域と表示終了領域が設定される。また、表示パターンがズームインの場合は、表示終了領域が注目領域を含む領域として設定され、表示開始領域が、注目領域及びセンター領域を含み、表示終了領域よりも一定の割合以上広い領域として設定される。また、表示パターンがズームアウトの場合は、表示開始領域が注目領域を含む領域として設定され、表示終了領域が、注目領域及びセンター領域を含み、表示開始領域よりも一定の割合以上広い領域として設定される。また、表示開始領域や表示終了領域が画像データ内に収まらないような設定としてもよい。   For example, the vertical direction and the horizontal direction of the image data are each divided into three equal parts, and the area that is the central part of each is defined as the center area. When the display pattern is pan, the display start area and the display end area are set so that the attention area and the center area are included by the display start area, the display end area, and the locus thereof. When the display pattern is zoomed in, the display end area is set as an area including the attention area, and the display start area is set as an area including the attention area and the center area and wider than the display end area by a certain percentage or more. The When the display pattern is zoomed out, the display start area is set as an area including the attention area, and the display end area is set as an area including the attention area and the center area and wider than the display start area by a certain percentage or more. Is done. Further, the display start area and the display end area may be set so as not to fit in the image data.

ここで、上述した表示開始領域及び表示終了領域について、座標情報を用いて具体的に説明する。なお、以下の説明においては、座標(x,y)は画像データの左上の頂点を(0,0)とした整数で表され、右方向にx軸、下方向にy軸が伸び、右に行くほどxの値が大きく、下に行くほどyの値が大きくなるものとする。また、画像データの右下の頂点の座標を(xx,yy)とする。また、注目領域の左上の頂点座標を(x1,y1)、右下の頂点座標を(x2,y2)とし、センター領域の左上の頂点座標を(xc1,yc1)、右下の頂点座標を(xc2,yc2)とする。また、表示開始領域の左上の頂点座標を(xs1,ys1)、右下の頂点座標を(xs2,ys2)とし、表示終了領域の左上の頂点座標を(xe1,ye1)、右下の頂点座標を(xe2,ye2)とする。また、min(A,B)は、AとBとで小さな方の値、max(A,B)はAとBとで大きな方の値を表すものとする。また、rand(A,B)は、乱数によりA以上B以下の値を返す関数とする。また、表示部9にて画像データが表示される領域の縦横比は、4:3(横4:縦3)とする。   Here, the display start area and the display end area described above will be specifically described using coordinate information. In the following description, the coordinates (x, y) are represented by integers with the upper left vertex of the image data being (0, 0), the x axis extends to the right, the y axis extends downward, and the right It is assumed that the value of x increases as it goes and the value of y increases as it goes down. Also, the coordinates of the lower right vertex of the image data are (xx, yy). Further, the upper left vertex coordinates of the attention area are (x1, y1), the lower right vertex coordinates are (x2, y2), the upper left vertex coordinates of the center area are (xc1, yc1), and the lower right vertex coordinates are ( xc2, yc2). Also, the upper left vertex coordinates of the display start area are (xs1, ys1), the lower right vertex coordinates are (xs2, ys2), the upper left vertex coordinates of the display end area are (xe1, ye1), and the lower right vertex coordinates. Is (xe2, ye2). In addition, min (A, B) represents a smaller value between A and B, and max (A, B) represents a larger value between A and B. Also, rand (A, B) is a function that returns a value between A and B by a random number. In addition, the aspect ratio of the area in which image data is displayed on the display unit 9 is 4: 3 (horizontal 4: vertical 3).

表示パターンが横方向のパンで、表示領域が画像データの左側から右側に移動する場合、
xs1<min(x1,xc1)
ys1<min(y1,yc1)
ys2>max(y2,yc2)
xe2>max(x2,xc2)
ye1<min(y1,yc1)
ye2>max(y2,yc2)
を満たすように表示開始領域及び表示終了領域を設定することで、横方向のパンを表示パターンとして画像データを表示した場合に、注目領域及びセンター領域が表示されるようにすることができる。ここで、上記条件式を満たす値の組み合わせは一意ではなく、例えば、条件式を満たす範囲で乱数を用いて決める等の方法で実際の値を求めればよい。なお、表示開始領域の右下の頂点のx座標xs2及び表示終了領域の左上の頂点のx座標xe1は、表示部9にて画像データが表示される領域の縦横比と上述した6つの座標とにより求めることができる。
If the display pattern is a horizontal pan and the display area moves from the left side to the right side of the image data,
xs1 <min (x1, xc1)
ys1 <min (y1, yc1)
ys2> max (y2, yc2)
xe2> max (x2, xc2)
ye1 <min (y1, yc1)
ye2> max (y2, yc2)
By setting the display start area and the display end area so as to satisfy the above condition, it is possible to display the attention area and the center area when image data is displayed using the horizontal pan as a display pattern. Here, a combination of values satisfying the conditional expression is not unique. For example, an actual value may be obtained by a method such as determining using a random number within a range satisfying the conditional expression. It should be noted that the x coordinate xs2 of the lower right vertex of the display start area and the x coordinate xe1 of the upper left vertex of the display end area are the aspect ratio of the area where the image data is displayed on the display unit 9 and the above-described six coordinates. It can ask for.

上記条件式を満たす値を乱数を用いて決める方法の一例としては以下のような方法がある。なお、値の決定方法は以下に限定されず、他の方法で行ってもよい。   An example of a method for determining a value satisfying the conditional expression using a random number is as follows. Note that the method of determining the value is not limited to the following, and other methods may be used.

まず、乱数を用いて、xs1,ys1,ys2,xe2の値を求める。これは、例えば以下のような計算によって求めることができる。   First, values of xs1, ys1, ys2, and xe2 are obtained using random numbers. This can be obtained, for example, by the following calculation.

xs1=rand(0,min(x1,xc1)−1)
ys1=rand(0,min(y1,yc1)−1)
ys2=rand(max(y2,yc2)+1,yy)
xe2=rand(max(x2,xc2)+1,xx)
次に、上述した計算によって求めたxe2とxs1の値が、横方向のパンで表示するのための差が十分あるかを調べ、十分な差がなければxe2とxs1の値を修正する。
xs1 = rand (0, min (x1, xc1) -1)
ys1 = rand (0, min (y1, yc1) -1)
ys2 = rand (max (y2, yc2) +1, yy)
xe2 = rand (max (x2, xc2) +1, xx)
Next, it is checked whether there is a sufficient difference between the values of xe2 and xs1 obtained by the above-described calculation for displaying in the horizontal pan. If there is not a sufficient difference, the values of xe2 and xs1 are corrected.

例えば、表示部9にて画像データが表示される領域の縦横比が4:3で、横方向のパンで画像データの横の長さの最低10%動くようにしようとした場合、もし、xe2−xs1<(ys2−ys1)÷3×4×1.1であれば、xe2とxs1の差が十分でないため、xe2とxs1の値を以下のように修正する。   For example, if the aspect ratio of the area where the image data is displayed on the display unit 9 is 4: 3 and the horizontal panning is intended to move at least 10% of the horizontal length of the image data, xe2 If -xs1 <(ys2-ys1) ÷ 3 × 4 × 1.1, the difference between xe2 and xs1 is not sufficient, so the values of xe2 and xs1 are corrected as follows.

xe2とxs1の値の差の不足分dxは、
dx=(ys2−ys1)÷3×4×1.1−(xe2−xs1)
となるため、xe2+dx÷2を新たなxe2とし、また、xs1−dx÷2を新たなxs1とする。
The deficit dx of the difference between the values of xe2 and xs1 is
dx = (ys2-ys1) ÷ 3 × 4 × 1.1− (xe2-xs1)
Therefore, xe2 + dx ÷ 2 is set as new xe2, and xs1-dx ÷ 2 is set as new xs1.

次に、ye1とye2の値を求める。これらの値は、
ye2>max(y2,yc2)
かつ、
ye1<min(y1,yc1)
かつ、
ye2−ye1=ys2−ys1
を満たす値とすればよい。よって、以下の計算によって求めることができる。
Next, the values of ye1 and ye2 are obtained. These values are
ye2> max (y2, yc2)
And,
ye1 <min (y1, yc1)
And,
ye2-ye1 = ys2-ys1
A value satisfying the above may be used. Therefore, it can be obtained by the following calculation.

ye1=rand(ys1−(ys2−max(y2,yc2)−1),min(y1,yc1)−1)
ye2=ye1+(ys2−ys1)
最後に、xs2とxe1の値を求める。これは、既に求められたxs1,xe2,ys1,ys2,ye1,ye2の値と、表示部9にて画像データが表示される領域の縦横比より求めることができる。
ye1 = rand (ys1- (ys2-max (y2, yc2) -1), min (y1, yc1) -1)
ye2 = ye1 + (ys2-ys1)
Finally, the values of xs2 and xe1 are obtained. This can be obtained from the already obtained values of xs1, xe2, ys1, ys2, ye1, and ye2 and the aspect ratio of the area in which image data is displayed on the display unit 9.

xs2=xs1+(ys2−ys1)÷3×4
xe1=xe2−(ye2−ye1)÷3×4
以上の計算により、表示開始領域及び表示終了領域の座標の値を求めることができる。
xs2 = xs1 + (ys2-ys1) ÷ 3 × 4
xe1 = xe2- (ye2-ye1) ÷ 3 × 4
With the above calculation, the coordinate values of the display start area and the display end area can be obtained.

また、表示パターンが横方向のパンで、表示領域が画像データの右側から左側に移動する場合は、
xs2>max(x2,xc2)
ys1<min(y1,yc1)
ys2>max(y2,yc2)
xe1<min(x1,xc1)
ye1<min(y1,yc1)
ye2>max(y2,yc2)
を満たすように表示開始領域及び表示終了領域を設定することで、横方向のパンを表示パターンとして画像データを表示した場合に、注目領域及びセンター領域が表示されるようにすることができる。ここで、上記条件式を満たす値の組み合わせは一意ではなく、例えば、条件式を満たす範囲で乱数を用いて決める等の方法で実際の値を求めればよい。なお、表示開始領域の左上の頂点のx座標xs1及び表示終了領域の右下の頂点のx座標xe2は、表示部9にて画像データが表示される領域の縦横比と上述した6つの座標とにより求めることができる。上記条件式を満たす値を乱数を用いて決める方法の一例としては、前述した横方向のパンで表示領域が画像データの左側から右側へ移動する場合と同じような手順で求める方法が考えられる。
If the display pattern is a horizontal pan and the display area moves from the right side to the left side of the image data,
xs2> max (x2, xc2)
ys1 <min (y1, yc1)
ys2> max (y2, yc2)
xe1 <min (x1, xc1)
ye1 <min (y1, yc1)
ye2> max (y2, yc2)
By setting the display start area and the display end area so as to satisfy the above condition, it is possible to display the attention area and the center area when image data is displayed using the horizontal pan as a display pattern. Here, a combination of values satisfying the conditional expression is not unique. For example, an actual value may be obtained by a method such as determining using a random number within a range satisfying the conditional expression. Note that the x coordinate xs1 of the upper left vertex of the display start area and the x coordinate xe2 of the lower right vertex of the display end area are the aspect ratio of the area where the image data is displayed on the display unit 9, and the above-described six coordinates. It can ask for. As an example of a method of determining a value satisfying the conditional expression using a random number, a method of obtaining the display area in the same procedure as the case where the display area is moved from the left side to the right side of the image data by the horizontal pan described above can be considered.

また、表示パターンが縦方向のパンで、表示領域が画像データの上側から下側に移動する場合は、
xs1<min(x1,xc1)
xs2>max(x2,xc2)
ys1<min(y1,yc1)
xe1<min(x1,xc1)
xe2>max(x2,xc2)
ye2>max(y2,yc2)
を満たすように表示開始領域及び表示終了領域を設定することで、縦方向のパンを表示パターンとして画像データを表示した場合に、注目領域及びセンター領域が表示されるようにすることができる。ここで、上記条件式を満たす値の組み合わせは一意ではなく、例えば、条件式を満たす範囲で乱数を用いて決める等の方法で実際の値を求めればよい。なお、表示開始領域の右下の頂点のy座標ys2及び表示終了領域の左上の頂点のy座標ye1は、表示部9にて画像データが表示される領域の縦横比と上述した6つの座標とにより求めることができる。上記条件式を満たす値を乱数を用いて決める方法の一例としては、前述した横方向のパンで表示領域が画像データの左側から右側へ移動する場合と同じような手順で求める方法が考えられる。
Also, if the display pattern is a vertical pan and the display area moves from the top to the bottom of the image data,
xs1 <min (x1, xc1)
xs2> max (x2, xc2)
ys1 <min (y1, yc1)
xe1 <min (x1, xc1)
xe2> max (x2, xc2)
ye2> max (y2, yc2)
By setting the display start area and the display end area so as to satisfy the above condition, it is possible to display the attention area and the center area when image data is displayed with the vertical pan as a display pattern. Here, a combination of values satisfying the conditional expression is not unique. For example, an actual value may be obtained by a method such as determining using a random number within a range satisfying the conditional expression. Note that the y coordinate ys2 of the lower right vertex of the display start area and the y coordinate ye1 of the upper left vertex of the display end area are the aspect ratio of the area where the image data is displayed on the display unit 9, and the above-described six coordinates. It can ask for. As an example of a method of determining a value satisfying the conditional expression using a random number, a method of obtaining the display area in the same procedure as the case where the display area is moved from the left side to the right side of the image data by the horizontal pan described above can be considered.

また、表示パターンが縦方向のパンで、表示領域が画像データの下側から上側に移動する場合は、
xs1<min(x1,xc1)
xs2>max(x2,xc2)
ys2>max(y2,yc2)
xe1<min(x1,xc1)
xe2>max(x2,xc2)
ye1<min(y1,yc1)
を満たすように表示開始領域及び表示終了領域を設定することで、縦方向のパンを表示パターンとして画像データを表示した場合に、注目領域及びセンター領域が表示されるようにすることができる。ここで、上記条件式を満たす値の組み合わせは一意ではなく、例えば、条件式を満たす範囲で乱数を用いて決める等の方法で実際の値を求めればよい。なお、表示開始領域の左上の頂点のy座標ys1及び表示終了領域の右下の頂点のy座標ye2は、表示部9にて画像データが表示される領域の縦横比と上述した6つの座標とにより求めることができる。上記条件式を満たす値を乱数を用いて決める方法の一例としては、前述した横方向のパンで表示領域が画像データの左側から右側へ移動する場合と同じような手順で求める方法が考えられる。
Also, if the display pattern is a vertical pan and the display area moves from the bottom to the top of the image data,
xs1 <min (x1, xc1)
xs2> max (x2, xc2)
ys2> max (y2, yc2)
xe1 <min (x1, xc1)
xe2> max (x2, xc2)
ye1 <min (y1, yc1)
By setting the display start area and the display end area so as to satisfy the above condition, it is possible to display the attention area and the center area when image data is displayed with the vertical pan as a display pattern. Here, a combination of values satisfying the conditional expression is not unique. For example, an actual value may be obtained by a method such as determining using a random number within a range satisfying the conditional expression. Note that the y coordinate ys1 of the upper left vertex of the display start area and the y coordinate ye2 of the lower right vertex of the display end area are the aspect ratio of the area where the image data is displayed on the display unit 9 and the above-described six coordinates. It can ask for. As an example of a method of determining a value satisfying the conditional expression using a random number, a method of obtaining the display area in the same procedure as the case where the display area is moved from the left side to the right side of the image data by the horizontal pan described above can be considered.

また、表示パターンがズームインの場合は、
xs1<min(x1,xc1)
xs2>max(x2,xc2)
ys1<min(y1,yc1)
ys2>max(y2,yc2)
xe1<x1
xe2>x2
ye1<y1
ye2>y2
を満たし、かつ、表示開始領域が表示終了領域よりも一定割合以上広く、かつ、表示部9にて画像データが表示される領域の縦横比と表示開始領域と表示終了領域の縦横比が一致するように表示開始領域及び表示終了領域を設定する。ここで、上記条件式を満たす値の組み合わせは一意ではなく、例えば、条件式を満たす範囲で乱数を用いて決める等の方法で実際の値を求めればよい。
If the display pattern is zoomed in,
xs1 <min (x1, xc1)
xs2> max (x2, xc2)
ys1 <min (y1, yc1)
ys2> max (y2, yc2)
xe1 <x1
xe2> x2
ye1 <y1
ye2> y2
And the display start area is wider than the display end area by a certain percentage or more, and the aspect ratio of the area where the image data is displayed on the display unit 9 matches the aspect ratio of the display start area and the display end area. The display start area and the display end area are set as described above. Here, a combination of values satisfying the conditional expression is not unique. For example, an actual value may be obtained by a method such as determining using a random number within a range satisfying the conditional expression.

上記条件式を満たす値を乱数を用いて決める方法の一例としては以下のような方法がある。なお、値の決定方法は以下に限定されず、他の方法で行ってもよい。   An example of a method for determining a value satisfying the conditional expression using a random number is as follows. Note that the method of determining the value is not limited to the following, and other methods may be used.

まず、乱数を用いて、xs1,xs2,ys1,ys2,xe1,xe2,ye1,ye2の値を求める。これは、例えば以下のような計算によって求めることができる。   First, values of xs1, xs2, ys1, ys2, xe1, xe2, ye1, and ye2 are obtained using random numbers. This can be obtained, for example, by the following calculation.

xs1=rand(0,min(x1,xc1)−1)
xs2=rand(max(x2,xc2)+1,xx)
ys1=rand(0,min(y1,yc1)−1)
ys2=rand(max(y2,yc2)+1,yy)
xe1=rand(0,x1−1)
xe2=rand(x2+1,xx)
ye1=rand(0,y1−1)
ye2=rand(y2+1,yy)
次に、表示部9にて画像データが表示される領域の縦横比と、表示開始領域・表示終了領域の縦横比を合わせる。例えば、表示部9にて画像データが表示される領域の縦横比を4:3として、もし表示開始領域が4:3よりも横長であった場合は、4:3になるように縦方向に表示領域を大きくする。これは、以下のような処理で行うことができる。
xs1 = rand (0, min (x1, xc1) -1)
xs2 = rand (max (x2, xc2) +1, xx)
ys1 = rand (0, min (y1, yc1) -1)
ys2 = rand (max (y2, yc2) +1, yy)
xe1 = rand (0, x1-1)
xe2 = rand (x2 + 1, xx)
ye1 = rand (0, y1-1)
ye2 = rand (y2 + 1, yy)
Next, the aspect ratio of the area where the image data is displayed on the display unit 9 is matched with the aspect ratio of the display start area / display end area. For example, if the aspect ratio of the area where the image data is displayed on the display unit 9 is 4: 3, and the display start area is wider than 4: 3, the aspect ratio is 4: 3. Increase the display area. This can be done by the following process.

もし、
xs2−xs1>(ys2−ys1)÷3×4
であれば、表示開始領域が4:3よりも横長となるため、縦方向に拡大する分dyは、
dy=(xs2−xs1)÷4×3−(ys2−ys1)
となり、ys1−dy÷2を新たなys1とし、また、ys2+dy÷2を新たなys2とすることにより、表示開始領域を縦方向に大きくする。
if,
xs2-xs1> (ys2-ys1) ÷ 3 × 4
Then, since the display start area is horizontally longer than 4: 3, the amount dy that is enlarged in the vertical direction is
dy = (xs2-xs1) ÷ 4 × 3- (ys2-ys1)
Thus, ys1−dy ÷ 2 is set as a new ys1, and ys2 + dy ÷ 2 is set as a new ys2, thereby increasing the display start area in the vertical direction.

同様に、表示開始領域が4:3よりも縦長であった場合は、4:3になるように横方向に領域を大きくする。表示終了領域についても同様である。   Similarly, when the display start area is vertically longer than 4: 3, the area is enlarged in the horizontal direction so as to be 4: 3. The same applies to the display end area.

最後に、表示開始領域と表示終了領域の大きさに一定以上の差があるかを調べ、なければ、これらの領域の大きさに差を付けるために表示開始領域を大きくする。例えば、一辺の長さの比で、表示開始領域が表示終了領域の1.2倍以上になるようにする場合、もし、表示開始領域の辺の長さが、表示終了領域の辺の長さの1.2倍よりも小さければ、辺の長さが表示終了領域の辺の長さの1.2倍になるように表示開始領域を拡大する。これは以下のような処理で行うことができる。   Finally, it is checked whether there is a certain difference between the sizes of the display start area and the display end area. If there is no difference, the display start area is enlarged to make a difference between these areas. For example, when the ratio of the length of one side is set so that the display start area is 1.2 times or more the display end area, the length of the side of the display start area is the length of the side of the display end area. If it is smaller than 1.2 times, the display start area is enlarged so that the side length becomes 1.2 times the side length of the display end area. This can be done by the following process.

もし、
xs2−xs1<(xe2−xe1)×1.2
であれば、一辺の長さの比で表示開始領域が表示終了領域の1.2倍未満となるため、表示開始領域を拡大する分dx,dyは、
dx=(xe2−xe1)×1.2−(xs2−xs1)
dy=(ye2−ye1)×1.2−(ys2−ys1)
となり、xs1−dx÷2を新たなxs1とし、また、xs2+dx÷2を新たなxs2とし、また、ys1−dy÷2を新たなys1とし、また、ys2+dy÷2を新たなys2とすることにより、表示開始領域を拡大する。
if,
xs2-xs1 <(xe2-xe1) × 1.2
If so, since the display start area is less than 1.2 times the display end area by the ratio of the lengths of one side, the amounts dx and dy for expanding the display start area are
dx = (xe2−xe1) × 1.2− (xs2−xs1)
dy = (ye2-ye1) × 1.2− (ys2-ys1)
Xs1−dx ÷ 2 becomes new xs1, xs2 + dx ÷ 2 becomes new xs2, ys1−dy ÷ 2 becomes new ys1, and ys2 + dy ÷ 2 becomes new ys2. , Enlarge the display start area.

以上の処理により、表示開始領域及び表示終了領域の座標の値を求めることができる。   Through the above processing, the coordinate values of the display start area and the display end area can be obtained.

また、表示パターンがズームアウトの場合は、
xs1<x1
xs2>x2
ys1<y1
ys2>y2
xe1<min(x1,xc1)
xe2>max(x2,xc2)
ye1<min(y1,yc1)
ye2>max(y2,yc2)
を満たし、かつ、表示終了領域が表示開始領域よりも一定割合以上広く、かつ、表示部9にて画像データが表示される領域の縦横比と表示開始領域と表示終了領域の縦横比が一致するように表示開始領域及び表示終了領域を設定する。ここで、上記条件式を満たす値の組み合わせは一意ではなく、例えば、条件式を満たす範囲で乱数を用いて決める等の方法で実際の値を求めればよい。上記条件式を満たす値を乱数を用いて決める方法の一例としては、前述したズームインの場合と同じような手順で求める方法が考えられる。
If the display pattern is zoomed out,
xs1 <x1
xs2> x2
ys1 <y1
ys2> y2
xe1 <min (x1, xc1)
xe2> max (x2, xc2)
ye1 <min (y1, yc1)
ye2> max (y2, yc2)
And the display end area is wider than the display start area by a certain percentage or more, and the aspect ratio of the area in which the image data is displayed on the display unit 9 matches the aspect ratio of the display start area and the display end area. In this way, the display start area and the display end area are set. Here, a combination of values satisfying the conditional expression is not unique. For example, an actual value may be obtained by a method such as determining using a random number within a range satisfying the conditional expression. As an example of a method for determining a value satisfying the conditional expression using a random number, a method for obtaining in the same procedure as in the case of zoom-in described above can be considered.

ステップS17にて設定された表示開始領域及び表示終了領域は、画像データ毎にパターン管理テーブル11cに記録される(ステップS18)。   The display start area and display end area set in step S17 are recorded in the pattern management table 11c for each image data (step S18).

図6は、図1に示したパターン管理テーブル11cの一例を示す図である。   FIG. 6 is a diagram illustrating an example of the pattern management table 11c illustrated in FIG.

図6に示すように、本形態におけるパターン管理テーブル11cにおいては、画像データ群1aを構成するn個の画像データ毎に、画像サイズと、ステップS13にて設定された注目領域を示す座標情報と、ステップS15にて設定された表示パターンと、ステップS17にて設定された表示開始領域及び表示終了領域をそれぞれ示す座標情報とが記録されている。ここで、各領域の座標情報は、前述した座標情報により、各領域の左上及び右下の頂点の座標が記録されている。   As shown in FIG. 6, in the pattern management table 11c in this embodiment, for each of n pieces of image data constituting the image data group 1a, the image size and coordinate information indicating the attention area set in step S13 are displayed. The display pattern set in step S15 and the coordinate information indicating the display start area and display end area set in step S17 are recorded. Here, as the coordinate information of each area, the coordinates of the upper left and lower right vertices of each area are recorded by the above-described coordinate information.

領域設定部7においては、画像データ群1aを構成するn個の画像データのそれぞれについての表示開始領域及び表示終了領域のパターン管理テーブル11cへの記録が終了すると、その旨が制御部10に通知される。   When the area setting unit 7 finishes recording the display start area and the display end area of each of the n pieces of image data constituting the image data group 1a in the pattern management table 11c, the area setting unit 7 notifies the control unit 10 to that effect. Is done.

次に、制御部10において、スライドショー実行部8に対して、画像データ登録管理部1にて管理されている画像データ群1aを取得し、この画像データ群1aについて、パターン管理テーブル11cに記録された情報に基づいて、スライドショーを実行する旨の命令が出力される。   Next, the control unit 10 acquires the image data group 1a managed by the image data registration management unit 1 from the slide show execution unit 8, and the image data group 1a is recorded in the pattern management table 11c. Based on the received information, a command to execute the slide show is output.

すると、スライドショー実行部8において、画像データ登録管理部1にて管理されている画像データ群1aが取得されるとともに、パターン管理テーブル11cが参照され、取得された画像データ群1aについて、パターン管理テーブル11cに記録された表示パターン、並びに表示開始領域及び表示終了領域に従って表示部9にてスライドショー表示が行われる(ステップS19)。   Then, in the slide show execution unit 8, the image data group 1a managed by the image data registration management unit 1 is acquired, the pattern management table 11c is referred to, and the pattern management table for the acquired image data group 1a is referred to. A slide show is displayed on the display unit 9 in accordance with the display pattern recorded in 11c and the display start area and display end area (step S19).

図7及び図8は、図1に示したスライドショー実行部8におけるスライドショー表示を説明するための図である。   7 and 8 are diagrams for explaining the slide show display in the slide show execution unit 8 shown in FIG.

図7(a)に示したような画像データについて、パターン管理テーブル11cにおいて、表示パターンとして横方向のパンが記録されており、また、その表示開始領域及び表示終了領域としてそれぞれ図7(b)に示すような領域が記録されている場合、スライドショー実行部8の制御によって、まず、取得した画像データのうち、図7(b)に示した表示開始領域内の画像データが表示部9全体に拡大された状態となって表示され(図7(c))、その後、図7(b)に示した表示終了領域まで画像データが右側から左側に移動し、図7(b)に示した表示終了領域内の画像データが表示部9全体に拡大された状態となって表示されてその画像データの表示が終了する(図7(d))。なお、上述した画像データの拡大処理は、図7(b)に示した表示開始領域及び表示終了領域の4つの頂点あるいは対角線上の2つの頂点の座標を、表示部9における画像データの表示領域の4つの頂点あるいは対角線上の2つの頂点の座標に置き換えるといった公知の方法で行なわれる。   With respect to the image data as shown in FIG. 7A, the horizontal pan is recorded as the display pattern in the pattern management table 11c, and the display start area and the display end area are respectively shown in FIG. 7B. When the area as shown in FIG. 7 is recorded, the image data in the display start area shown in FIG. The image is displayed in an enlarged state (FIG. 7C), and then the image data moves from the right side to the left side to the display end area shown in FIG. 7B, and the display shown in FIG. The image data in the end area is displayed in an enlarged state on the entire display unit 9, and the display of the image data is ended (FIG. 7D). Note that the above-described image data enlargement processing is performed by using the coordinates of the four vertices in the display start area and the display end area shown in FIG. This is performed by a known method such as replacement with the coordinates of the four vertices or the diagonal two vertices.

また、図8(a)に示したような画像データについて、パターン管理テーブル11cにおいて、表示パターンとしてズームアップが記録されており、また、その表示開始領域及び表示終了領域としてそれぞれ図8(b)に示すような領域が記録されている場合、スライドショー実行部8の制御によって、まず、取得した画像データのうち、図8(b)に示した表示開始領域内の画像データが表示部9全体に拡大された状態となって表示され(図8(c))、その後、図8(b)に示した表示終了領域まで画像データがさらに拡大され、図8(b)に示した表示終了領域内の画像データが表示部9全体に拡大された状態となって表示されてその画像データの表示が終了する(図8(d))。なお、上述した画像データの拡大処理は、図8(b)に示した表示開始領域及び表示終了領域の4つの頂点あるいは対角線上の2つの頂点の座標を、表示部9における画像データの表示領域の4つの頂点あるいは対角線上の2つの頂点の座標に置き換えるといった公知の方法で行なわれる。   Further, for the image data as shown in FIG. 8A, zoom-up is recorded as a display pattern in the pattern management table 11c, and the display start area and the display end area thereof are respectively shown in FIG. 8B. When the area as shown in FIG. 8 is recorded, the image data in the display start area shown in FIG. The image is displayed in an enlarged state (FIG. 8C), and then the image data is further expanded to the display end area shown in FIG. 8B, and the display end area shown in FIG. Is displayed in an enlarged state on the entire display unit 9, and the display of the image data ends (FIG. 8D). Note that the image data enlargement process described above is performed by using the coordinates of the four vertices in the display start area and the display end area shown in FIG. This is performed by a known method such as replacement with the coordinates of the four vertices or the diagonal two vertices.

その後、スライドショー実行部8において、画像データ群1aを構成するn個の画像データのそれぞれについて、上述したような表示が一定時間毎に切り替えられて行われていく。   Thereafter, in the slide show execution unit 8, the display as described above is performed for each of the n pieces of image data constituting the image data group 1a while being switched at regular intervals.

このように本形態においては、取り込まれた画像データに含まれる顔データを認識し、この顔データの配置領域の大きさや、この顔データが含まれる画像データの数や、この顔データの配置領域の画像データにおける中心からの距離や、この顔データが予め登録されている顔データであるかどうかに基づいて、画像データを用いたスライドショー表示における表示形態が設定されるので、画像データを鑑賞するユーザに応じた表示効果を与えることができるとともに、画像データに写っている人物の情報に応じた表示効果を与えることができる。   As described above, in this embodiment, the face data included in the captured image data is recognized, the size of the arrangement area of the face data, the number of image data including the face data, and the arrangement area of the face data. The display mode in the slide show display using the image data is set based on the distance from the center of the image data and whether the face data is pre-registered face data. A display effect according to the user can be given, and a display effect according to the information of the person shown in the image data can be given.

なお、本形態においては、スライドショー実行命令が制御部10に入力された後に上述したステップS2〜S19の処理が行われているが、ステップS2〜S18の処理は、画像データや顔データが取得された際に予め行っておくことも考えられる。   In the present embodiment, the processing in steps S2 to S19 described above is performed after the slide show execution command is input to the control unit 10, but the processing in steps S2 to S18 acquires image data and face data. It may be possible to go in advance.

(第2の実施の形態)
図9は、本発明の画像表示装置の第2の実施の形態を示すブロック図である。
(Second Embodiment)
FIG. 9 is a block diagram showing a second embodiment of the image display apparatus of the present invention.

本形態は図9に示すように、第1の実施の形態にて示したものに対して、画像データ登録管理部1にてそれぞれが少なくとも1つの画像データからなる複数の画像データ群である画像データ群1a−1〜1a−Nが管理されている点が異なるものである。また、顔データ登録管理部2においては、管理している顔データ2aについて、画像データ登録管理部1にて管理されている複数の画像データ群1a−1〜1a−N毎に、重要度を高く設定するための顔データが登録されている。   As shown in FIG. 9, this embodiment is an image that is a plurality of image data groups each composed of at least one image data in the image data registration management unit 1 in contrast to that shown in the first embodiment. The difference is that the data groups 1a-1 to 1a-N are managed. Further, the face data registration management unit 2 determines the importance of the managed face data 2a for each of the plurality of image data groups 1a-1 to 1a-N managed by the image data registration management unit 1. Face data for setting high is registered.

図10は、図9に示した顔データ登録管理部2内に設けられたテーブルの一例を示す図である。   FIG. 10 is a diagram showing an example of a table provided in the face data registration management unit 2 shown in FIG.

図10に示すように、本形態における顔データ登録管理部2においては、画像データ登録管理部1にて管理されている複数の画像データ群1a−1〜1a−N毎に、管理している顔データ2aのうち、どの顔データの重要度を高く設定するかが、その顔データの人物の氏名と画像データ群1a−1〜1a−Nとが対応づけられることによって管理されている。   As shown in FIG. 10, the face data registration management unit 2 in this embodiment manages each of a plurality of image data groups 1a-1 to 1a-N managed by the image data registration management unit 1. Of the face data 2a, which face data is set to have a high importance level is managed by associating the name of the person of the face data with the image data groups 1a-1 to 1a-N.

以下に、上記のように構成された画像表示装置における画像表示方法についてフローチャートを参照して説明する。   Hereinafter, an image display method in the image display apparatus configured as described above will be described with reference to flowcharts.

図11は、図9に示した画像表示装置における画像表示方法を説明するためのフローチャートである。   FIG. 11 is a flowchart for explaining an image display method in the image display apparatus shown in FIG.

まず、デジタルカメラ等にて撮影し、図9に示した画像表示装置においてスライドショー表示を行いたいn個の画像データからなるN種類の画像データ群を取り込んでおく。取り込まれたN種類の画像データ群は、画像データ登録管理部1において画像データ群1a−1〜1a−Nとしてそれぞれ登録、管理される。すなわち、本形態においては、n個の画像データから構成される画像データ群がN種類取り込まれ、管理されている。   First, N types of image data groups made up of n pieces of image data to be photographed with a digital camera or the like and to be displayed as a slide show in the image display apparatus shown in FIG. 9 are captured. The N types of captured image data groups are registered and managed as image data groups 1a-1 to 1a-N in the image data registration management unit 1, respectively. That is, in this embodiment, N types of image data groups composed of n pieces of image data are captured and managed.

また、この画像データ群1a−1〜1a−Nを用いて画像表示装置にてスライドショー表示を行う際に、画像データ群1a−1〜1a−Nを構成する画像データにそれぞれ含まれる他の被写体よりも重要度を高くして表示したい人物の顔データを取り込んでおく。取り込まれた顔データは顔データ登録管理部2において顔データ2aとして登録、管理されるとともに、図10に示したようなテーブルにて、画像データ登録管理部1にて管理される画像データ群1a−1〜1a−Nのうち、どの画像データ群にて重要度を高くして表示するのかが設定される。   Further, when a slide show is displayed on the image display device using the image data groups 1a-1 to 1a-N, other subjects included in the image data constituting the image data groups 1a-1 to 1a-N, respectively. The face data of the person who wants to display with higher importance than that is captured. The captured face data is registered and managed as face data 2a in the face data registration management unit 2, and the image data group 1a managed by the image data registration management unit 1 in a table as shown in FIG. It is set which image data group of -1 to 1a-N is displayed with higher importance.

その後、画像データ登録管理部1にて管理されている画像データ群1a−1〜1a−Nのうち、所望の画像データ群が指定され、その画像データ群を用いてのスライドショーの実行命令が入力されると(ステップS101)、制御部10において、顔認識部3に対して、画像データ登録管理部1にて管理されている画像データ群1a−1〜1a−Nのうち指定された画像データ群を取得し、この画像データ群について顔認識を実行する旨を示す命令が出力される。   Thereafter, a desired image data group is designated among the image data groups 1a-1 to 1a-N managed by the image data registration management unit 1, and a slide show execution command using the image data group is input. Then (step S101), in the control unit 10, the image data designated among the image data groups 1a-1 to 1a-N managed by the image data registration / management unit 1 with respect to the face recognition unit 3 is designated. A group is acquired, and a command indicating that face recognition is performed on the image data group is output.

すると、顔認識部3において、画像データ登録管理部1にて管理されている画像データ群1a−1〜1a−Nのうち指定された画像データ群が取得され(ステップS102)、まず、取得された画像データ群を構成するn個の画像データのそれぞれについて、その画像データに含まれる顔データが認識されてその顔データの配置領域を示す位置及び大きさが検出され、検出結果が記憶部11内の顔認識結果テーブル11bに記録される(ステップS103)。   Then, the face recognition unit 3 acquires the designated image data group among the image data groups 1a-1 to 1a-N managed by the image data registration management unit 1 (step S102). For each of the n pieces of image data constituting the image data group, the face data included in the image data is recognized, the position and size indicating the arrangement area of the face data are detected, and the detection result is stored in the storage unit 11. Is recorded in the face recognition result table 11b (step S103).

次に、画像データ内にて認識された顔データについて、顔検出人物テーブル11aに既に記録されているかどうかが照合される(ステップS104)。   Next, it is checked whether or not the face data recognized in the image data has already been recorded in the face detection person table 11a (step S104).

画像データ内にて認識された顔データが顔検出人物テーブル11aに既に記録されているかどうかが照合された結果、画像データ内にて認識された顔データが顔検出人物テーブル11aに既に記録されている場合は(ステップS105)、顔検出人物テーブル11aにてその顔データの人物について顔データが認識された画像データの数が1だけ増加される(ステップS106)。   As a result of collating whether the face data recognized in the image data has already been recorded in the face detection person table 11a, the face data recognized in the image data has already been recorded in the face detection person table 11a. If it is present (step S105), the number of image data whose face data is recognized for the person of the face data in the face detection person table 11a is increased by 1 (step S106).

一方、画像データ内にて認識された顔データが顔検出人物テーブル11aにまだ記録されていない場合は、顔認識部3において、画像データ内にて認識された顔データが顔検出人物テーブル11aに記録される(ステップS107)。その際、その顔データの人物について顔データが認識された画像データの数が「1」に設定される。   On the other hand, when the face data recognized in the image data is not yet recorded in the face detection person table 11a, the face data recognized in the image data is stored in the face detection person table 11a in the face recognition unit 3. It is recorded (step S107). At that time, the number of image data whose face data is recognized for the person of the face data is set to “1”.

次に、顔認識部3において、顔データ登録管理部2にて管理されている顔データ2aのうち、画像データ登録管理部1から取得された画像データ群に対応づけられた顔データが取得され、画像データ内にて認識された顔データが、顔データ登録管理部2から取得された顔データに含まれる顔データであるかが照合される(ステップS108)。なお、顔データ登録管理部2においては、図10に示したように、画像データ登録管理部1にて管理されている画像データ群1a−1〜1a−N毎に、重要度を高く設定したい顔データの氏名がテーブルにて対応づけて管理されているが、第1の実施の形態にて示したものと同様に、顔データ登録管理部2にて管理されている顔データ2aには、取り込まれた顔データに対応づけてその顔データの人物の氏名が含まれているため、このテーブルにて管理された氏名を参照して重要度を高く設定したい顔データを検索することができる。また、顔データ登録管理部2から取得された顔データが複数の顔データからなる場合は、それら複数の顔データの全てに対して画像データ内にて認識された顔データとの照合が行われ、画像データ内にて認識された顔データが、顔データ登録管理部2から取得された顔データに含まれる顔であるかが照合されることになる。   Next, in the face recognition unit 3, the face data associated with the image data group acquired from the image data registration management unit 1 is acquired from the face data 2 a managed by the face data registration management unit 2. Whether the face data recognized in the image data is the face data included in the face data acquired from the face data registration management unit 2 is checked (step S108). In the face data registration management unit 2, as shown in FIG. 10, it is desired to set a high importance level for each of the image data groups 1 a-1 to 1 a -N managed by the image data registration management unit 1. Although the names of face data are managed in association with each other in the table, the face data 2a managed by the face data registration management unit 2 is similar to that shown in the first embodiment. Since the name of the person of the face data is included in association with the captured face data, it is possible to search for the face data that is desired to set a high degree of importance by referring to the name managed in this table. When the face data acquired from the face data registration management unit 2 is composed of a plurality of face data, all of the plurality of face data is collated with the face data recognized in the image data. Whether the face data recognized in the image data is a face included in the face data acquired from the face data registration management unit 2 is verified.

画像データ内にて認識された顔データが、顔データ登録管理部2から取得された顔データに含まれる顔であるかが照合された結果、画像データ内にて認識された顔データが、顔データ登録管理部2から取得された顔データに含まれる顔データである場合、その旨が顔検出人物テーブル11aに記録される(ステップS109)。   As a result of collating whether the face data recognized in the image data is a face included in the face data acquired from the face data registration management unit 2, the face data recognized in the image data is If the face data is included in the face data acquired from the data registration management unit 2, that fact is recorded in the face detection person table 11a (step S109).

その後の処理については、第1の実施の形態にて示したステップS9〜S19における処理と同様である(ステップS110〜S120)。   The subsequent processing is the same as the processing in steps S9 to S19 shown in the first embodiment (steps S110 to S120).

このように本形態においては、少なくとも1つの画像データからなる複数種類の画像データ群を取り込んでおいた場合であっても、取り込まれた画像データ群について重要度を高く設定したい顔データが画像データ群毎に設定されているため、取り込まれた複数種類の画像データ群毎に、その画像データを鑑賞するユーザに応じた表示効果を与えることができるとともに、画像データに写っている人物の情報に応じた表示効果を与えることができる。   As described above, in the present embodiment, even when a plurality of types of image data groups each including at least one image data are captured, the face data whose importance is set to be high for the captured image data groups is image data. Since it is set for each group, it is possible to give a display effect according to the user who views the image data for each of a plurality of types of captured image data groups, and also to the information of the person reflected in the image data A corresponding display effect can be provided.

なお、本形態においても、第1の実施の形態にて示したものと同様に、ステップS102〜S119の処理は、画像データや顔データが取得された際に予め行っておくこともできる。ただし、本形態においては、複数種類の画像データ群1a−1〜1a−Nが取り込まれ、この画像データ群1a−1〜1a−Nを用いたスライドショー表示が行われるため、顔人物検出テーブル11a、顔認識結果テーブル11b及びパターン管理テーブル11cを画像データ群1a−1〜1a−N毎に設定し、スライドショー表示を行う画像データ群が指定された場合に、どの顔人物検出テーブル、顔認識結果テーブル及びパターン管理テーブルに基づいてスライドショー表示を行ったらよいかがわかるように、画像データ群1a−1〜1a−N毎に設定された、顔人物検出テーブル11a、顔認識結果テーブル11b及びパターン管理テーブル11cのそれぞれにどの画像データ群に対応するものであるかを示す識別情報を付与して管理しておく必要がある。   In this embodiment as well, as in the case of the first embodiment, the processing in steps S102 to S119 can be performed in advance when image data and face data are acquired. However, in this embodiment, a plurality of types of image data groups 1a-1 to 1a-N are captured and a slide show display using these image data groups 1a-1 to 1a-N is performed. When the face recognition result table 11b and the pattern management table 11c are set for each of the image data groups 1a-1 to 1a-N and an image data group for performing a slide show display is designated, which face person detection table and face recognition result are specified. The face person detection table 11a, the face recognition result table 11b, and the pattern management table are set for each of the image data groups 1a-1 to 1a-N so that it can be understood whether slide show display should be performed based on the table and the pattern management table. Each of 11c is assigned with identification information indicating which image data group corresponds to management There is a need advance.

(第3の実施の形態)
図12は、本発明の画像表示装置の第3の実施の形態を示すブロック図である。
(Third embodiment)
FIG. 12 is a block diagram showing a third embodiment of the image display device of the present invention.

本形態は図12に示すように、第1の実施の形態にて示したものに対して、外部からの命令によって、顔データ登録管理部2にて管理されている顔データ2aの中から、スライドショー表示を行う場合に配置領域の重要度を高く設定する顔データを選択する顔データ選択部12が設けられている点が異なるものである。   As shown in FIG. 12, the present embodiment is different from the face data 2a managed by the face data registration management unit 2 in accordance with an instruction from the outside, as shown in the first embodiment. The difference is that a face data selection unit 12 is provided for selecting face data for which the importance of the arrangement area is set to be high when performing a slide show display.

以下に、上記のように構成された画像表示装置における画像表示方法についてフローチャートを参照して説明する。   Hereinafter, an image display method in the image display apparatus configured as described above will be described with reference to flowcharts.

図13は、図12に示した画像表示装置における画像表示方法を説明するためのフローチャートである。   FIG. 13 is a flowchart for explaining an image display method in the image display apparatus shown in FIG.

まず、デジタルカメラ等にて撮影し、図12に示した画像表示装置においてスライドショー表示を行いたいn個の画像データを取り込んでおく。取り込まれたn個の画像データは、画像データ登録管理部1において画像データ群1aとして登録、管理される。   First, the image data is taken with a digital camera or the like, and n pieces of image data to be displayed as a slide show are captured in the image display apparatus shown in FIG. The acquired n pieces of image data are registered and managed as an image data group 1 a in the image data registration management unit 1.

また、この画像データ群1aを用いて画像表示装置にてスライドショー表示を行う際に、画像データ群1aを構成する画像データに含まれる他の被写体よりも重要度を高くして表示したい人物の顔データを取り込んでおく。取り込まれた顔データは、顔データ登録管理部2において顔データ2aとして登録、管理される。   Further, when a slide show is displayed on the image display device using the image data group 1a, the face of a person who wants to display with higher importance than other subjects included in the image data constituting the image data group 1a. Capture the data. The fetched face data is registered and managed as face data 2a in the face data registration management unit 2.

その後、画像データ登録管理部1にて管理されている画像データ群1aを用いてのスライドショーの実行命令が入力されると(ステップS201)、制御部10において、顔認識部3に対して、画像データ登録管理部1にて管理されている画像データ群1aを取得し、この画像データ群1aを構成する画像データについて顔認識を実行する旨を示す命令が出力されるとともに、制御部10における制御によって、顔データ登録管理部2にて管理されている顔データ2aのうち重要度を高く設定する顔データを選択するための画面が表示部9に表示される。   Thereafter, when an instruction to execute a slide show using the image data group 1a managed by the image data registration management unit 1 is input (step S201), the control unit 10 causes the face recognition unit 3 to input an image. The image data group 1a managed by the data registration management unit 1 is acquired, and a command indicating that face recognition is performed on the image data constituting the image data group 1a is output, and the control in the control unit 10 is performed. As a result, a screen for selecting face data to be set with high importance is displayed on the display unit 9 from the face data 2 a managed by the face data registration management unit 2.

表示部9には、顔データ登録管理部2にて管理されている顔データ2aを特定可能な情報、例えばその顔の人物の氏名等が表示され、その中から顔データが選択されると、顔データ選択部12において、顔データ管理部2にて管理されている顔データ2aの中からその顔データが選択され(ステップS202)、選択された顔データのみが顔データ管理部2から取得される。   The display unit 9 displays information that can identify the face data 2a managed by the face data registration management unit 2, for example, the name of the person of the face, and when face data is selected from the information, The face data selection unit 12 selects the face data from the face data 2a managed by the face data management unit 2 (step S202), and only the selected face data is acquired from the face data management unit 2. The

また、顔認識部3において、画像データ登録管理部1にて管理されている画像データ群1aが取得され、まず、画像データ1aを構成するn個の画像データのそれぞれについて、その画像データに含まれる顔データが認識されてその顔データの配置領域を示す位置及び大きさが検出され、検出結果が記憶部11内の顔認識結果テーブル11bに記録される(ステップS203)。   Further, the face recognition unit 3 acquires the image data group 1a managed by the image data registration management unit 1, and first, n image data constituting the image data 1a are included in the image data. Face data is recognized, the position and size indicating the arrangement area of the face data is detected, and the detection result is recorded in the face recognition result table 11b in the storage unit 11 (step S203).

次に、画像データ内にて認識された顔データについて、顔検出人物テーブル11aに既に記録されているかどうかが照合される(ステップS204)。   Next, it is checked whether or not the face data recognized in the image data is already recorded in the face detection person table 11a (step S204).

画像データ内にて認識された顔データが顔検出人物テーブル11aに既に記録されているかどうかが照合された結果、画像データ内にて認識された顔が顔検出人物テーブル11aに既に記録されている場合は(ステップS205)、顔検出人物テーブル11aにてその顔データの人物について顔データが認識された画像データの数が1だけ増加される(ステップS206)。   As a result of collating whether the face data recognized in the image data is already recorded in the face detection person table 11a, the face recognized in the image data is already recorded in the face detection person table 11a. In this case (step S205), the number of image data whose face data is recognized for the person of the face data in the face detection person table 11a is increased by 1 (step S206).

一方、画像データ内にて認識された顔データが顔検出人物テーブル11aにまだ記録されていない場合は、顔認識部3において、画像データ内にて認識された顔データが顔検出人物テーブル11aに記録される(ステップS207)。その際、その顔データの人物について顔データが認識された画像データの数が「1」に設定される。   On the other hand, when the face data recognized in the image data is not yet recorded in the face detection person table 11a, the face data recognized in the image data is stored in the face detection person table 11a in the face recognition unit 3. It is recorded (step S207). At that time, the number of image data whose face data is recognized for the person of the face data is set to “1”.

次に、顔認識部3において、顔データ登録管理部2にて管理されている顔データ2aのうち、顔データ選択部12にて選択された顔データが取得され、画像データ内にて認識された顔データが、顔データ選択部12にて選択された顔データに含まれる顔であるかが照合される(ステップS208)。なお、顔データ選択部12にて選択された顔データが複数の顔データからなる場合は、それら複数の顔データの全てに対して画像データ内にて認識された顔との照合が行われ、画像データ内にて認識された顔が、顔データ選択部12にて選択された顔データに含まれる顔であるかが照合されることになる。   Next, the face recognition unit 3 acquires the face data selected by the face data selection unit 12 from the face data 2a managed by the face data registration management unit 2, and recognizes it in the image data. Whether the face data is a face included in the face data selected by the face data selection unit 12 is checked (step S208). When the face data selected by the face data selection unit 12 is composed of a plurality of face data, all of the plurality of face data is collated with the face recognized in the image data, It is verified whether the face recognized in the image data is a face included in the face data selected by the face data selection unit 12.

画像データ内にて認識された顔データが、顔データ選択部12にて選択された顔データに含まれる顔データであるかが照合された結果、画像データ内にて認識された顔データが、顔データ選択部12にて選択された顔データに含まれる顔データである場合、その旨が顔検出人物テーブル11aに記録される(ステップS209)。   As a result of collating whether the face data recognized in the image data is the face data included in the face data selected by the face data selection unit 12, the face data recognized in the image data is If the face data is included in the face data selected by the face data selection unit 12, that fact is recorded in the face detection person table 11a (step S209).

その後の処理については、第1の実施の形態にて示したステップS9〜S19における処理と同様である(ステップS210〜S220)。   The subsequent processing is the same as the processing in steps S9 to S19 shown in the first embodiment (steps S210 to S220).

このように本形態においては、1つの画像データについても、重要視する顔データを適宜選択することができるため、取り込まれた画像データを鑑賞するユーザに応じた表示効果を与えることができるとともに、画像データに写っている人物の情報に応じた表示効果を与えることができる。   As described above, in the present embodiment, since it is possible to appropriately select the face data to be regarded as important for one image data, it is possible to provide a display effect according to the user who views the captured image data. It is possible to provide a display effect corresponding to the information of the person shown in the image data.

なお、本形態においても、第1の実施の形態にて示したものと同様に、ステップS202〜S219の処理は、画像データや顔データが取得された際に予め行っておくこともできる。ただし、本形態においては、取り込まれた1つの画像データ群について、配置領域の重要度を高く設定する顔データが複数種類設定される場合があるため、その設定された顔データ毎に、顔検出人物テーブル11a、顔認識結果テーブル11b及びパターン管理テーブル11cを設定し、スライドショー実行命令が入力された場合に、そのスライドショーではどの顔検出人物テーブル、顔認識結果テーブル及びパターン管理テーブルに基づいてスライドショー表示を行ったらよいかがわかるように、顔検出人物テーブル11a、顔認識結果テーブル11b及びパターン管理テーブル11cのそれぞれに識別情報を付与しておき、スライドショー実行命令を入力する際にその識別情報も入力する必要がある。   In this embodiment as well, as in the case of the first embodiment, the processes in steps S202 to S219 can be performed in advance when image data and face data are acquired. However, in this embodiment, since there are cases where a plurality of types of face data for which the importance of the arrangement area is set is set for one captured image data group, face detection is performed for each set face data. When the person table 11a, the face recognition result table 11b, and the pattern management table 11c are set and a slide show execution command is input, a slide show display is performed based on which face detection person table, face recognition result table, and pattern management table in the slide show. Identification information is assigned to each of the face detection person table 11a, the face recognition result table 11b, and the pattern management table 11c so that the identification information is input when a slide show execution command is input. There is a need.

なお、本発明においては、画像表示装置内の処理は上述の専用のハードウェアにより実現されるもの以外に、その機能を実現するためのプログラムを画像表示装置にて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムを画像表示装置に読み込ませ、実行するものであっても良い。画像表示装置にて読取可能な記録媒体とは、フロッピーディスク、光磁気ディスク、DVD、CDなどの移設可能な記録媒体の他、画像表示装置に内蔵されたHDD等を指す。この記録媒体に記録されたプログラムは、例えば、制御ブロックにて読み込まれ、制御ブロックの制御によって、上述したものと同様の処理が行われる。   In the present invention, the processing in the image display apparatus is recorded on a recording medium readable by the image display apparatus, in addition to the process realized by the dedicated hardware described above. The program recorded on the recording medium may be read by the image display device and executed. The recording medium readable by the image display device refers to a transfer medium such as a floppy disk, a magneto-optical disk, a DVD, and a CD, as well as an HDD built in the image display device. The program recorded on this recording medium is read by a control block, for example, and the same processing as described above is performed under the control of the control block.

本発明の画像表示装置の第1の実施の形態を示すブロック図である。1 is a block diagram showing a first embodiment of an image display device of the present invention. 図1に示した画像表示装置における画像表示方法を説明するためのフローチャートである。3 is a flowchart for explaining an image display method in the image display apparatus shown in FIG. 1. 図1に示した顔認識部における認識結果を示す図である。It is a figure which shows the recognition result in the face recognition part shown in FIG. 図1に示した顔検出人物テーブルの一例を示す図である。It is a figure which shows an example of the face detection person table shown in FIG. 図1に示した顔認識結果テーブルの一例を示す図である。It is a figure which shows an example of the face recognition result table shown in FIG. 図1に示したパターン管理テーブルの一例を示す図である。It is a figure which shows an example of the pattern management table shown in FIG. 図1に示したスライドショー実行部におけるスライドショー表示を説明するための図である。It is a figure for demonstrating the slide show display in the slide show execution part shown in FIG. 図1に示したスライドショー実行部におけるスライドショー表示を説明するための図である。It is a figure for demonstrating the slide show display in the slide show execution part shown in FIG. 本発明の画像表示装置の第2の実施の形態を示すブロック図である。It is a block diagram which shows 2nd Embodiment of the image display apparatus of this invention. 図9に示した顔データ登録管理部内に設けられたテーブルの一例を示す図である。It is a figure which shows an example of the table provided in the face data registration management part shown in FIG. 図9に示した画像表示装置における画像表示方法を説明するためのフローチャートである。10 is a flowchart for explaining an image display method in the image display device shown in FIG. 9. 本発明の画像表示装置の第3の実施の形態を示すブロック図である。It is a block diagram which shows 3rd Embodiment of the image display apparatus of this invention. 図12に示した画像表示装置における画像表示方法を説明するためのフローチャートである。13 is a flowchart for explaining an image display method in the image display apparatus shown in FIG. 12.

符号の説明Explanation of symbols

1 画像データ登録管理部
1a,1a−1〜1a−N 画像データ群
2 顔データ登録管理部
2a 顔データ
3 顔認識部
4 重要度設定部
5 注目領域設定部
6 表示パターン設定部
7 領域設定部
8 スライドショー実行部
9 表示部
10 制御部
11 記憶部
11a 顔検出人物テーブル
11b 顔認識結果テーブル
11c パターン管理テーブル
12 顔データ選択部
DESCRIPTION OF SYMBOLS 1 Image data registration management part 1a, 1a-1-1a-N Image data group 2 Face data registration management part 2a Face data 3 Face recognition part 4 Importance setting part 5 Attention area setting part 6 Display pattern setting part 7 Area setting part 8 Slideshow execution unit 9 Display unit 10 Control unit 11 Storage unit 11a Face detection person table 11b Face recognition result table 11c Pattern management table 12 Face data selection unit

Claims (30)

顔データを含む画像データを画面上に表示する画像表示方法であって、
前記顔データを認識し、前記画像データ内にて前記顔データが配置される領域となる配置領域を検出する処理と、
前記配置領域が少なくとも表示されるように経時的に変化する表示形態で前記画像データを表示する処理とを有する画像表示方法。
An image display method for displaying image data including face data on a screen,
Processing for recognizing the face data and detecting an arrangement area that is an area in which the face data is arranged in the image data;
And a process of displaying the image data in a display form that changes over time so that the arrangement area is displayed at least.
請求項1に記載の画像表示方法において、
前記認識された顔データに応じて前記配置領域に重要度を設定する処理を有し、
前記重要度が所定値以上となる配置領域が少なくとも表示されるように経時的に変化する表示形態で前記画像データを表示することを特徴とする画像表示方法。
The image display method according to claim 1,
Processing to set importance in the arrangement area according to the recognized face data;
An image display method, wherein the image data is displayed in a display form that changes with time so that at least an arrangement region having an importance level equal to or greater than a predetermined value is displayed.
請求項2に記載の画像表示方法において、
前記認識された顔データと予め登録された顔データとを照合する処理と、
前記認識された顔データと予め登録された顔データとが一致した場合、当該顔データの配置領域の重要度を高く設定する処理とを有することを特徴とする画像表示方法。
The image display method according to claim 2,
A process of collating the recognized face data with previously registered face data;
An image display method comprising: processing for setting the importance of an arrangement area of the face data high when the recognized face data matches face data registered in advance.
請求項3に記載の画像表示方法において、
少なくとも1つの画像データからなる画像データ群毎に、重要度を高く設定するための顔データを予め登録、管理しておく処理を有することを特徴とする画像表示方法。
The image display method according to claim 3,
An image display method comprising a process of previously registering and managing face data for setting a high degree of importance for each image data group including at least one image data.
請求項3に記載の画像表示方法において、
前記予め登録された顔データのうち、表示される少なくとも1つの画像データからなる画像データ群に応じて配置領域の重要度を高くする顔データを選択する処理を有し、
前記認識された顔データと選択された顔データとが一致した場合、当該顔データの配置領域の重要度を高く設定することを特徴とする画像表示方法。
The image display method according to claim 3,
A process of selecting face data that increases the importance of the arrangement area according to an image data group composed of at least one image data to be displayed among the previously registered face data;
An image display method characterized in that when the recognized face data matches the selected face data, the importance of the arrangement area of the face data is set high.
請求項2乃至5のいずれか1項に記載の画像表示方法において、
前記検出された配置領域の前記画像データにおける中心からの距離が近いほど、当該配置領域の重要度を高く設定することを特徴とする画像表示方法。
The image display method according to any one of claims 2 to 5,
The image display method characterized by setting the importance of the arrangement area higher as the distance from the center in the image data of the detected arrangement area is closer.
請求項2乃至6のいずれか1項に記載の画像表示方法において、
前記検出された配置領域の大きさが大きいほど、当該配置領域の重要度を高く設定することを特徴とする画像表示方法。
The image display method according to any one of claims 2 to 6,
The image display method characterized by setting the importance of the arrangement area higher as the size of the detected arrangement area is larger.
請求項2乃至7のいずれか1項に記載の画像表示方法において、
少なくとも1つの画像データからなる画像データ群について認識された数が多い顔データの配置領域の重要度を高く設定することを特徴とする画像表示方法。
The image display method according to any one of claims 2 to 7,
An image display method characterized in that the importance of an arrangement area of face data having a large number of recognized image data groups composed of at least one image data is set high.
請求項1乃至8のいずれか1項に記載の画像表示方法において、
表示される配置領域の大きさ及び前記画像データにおける位置に応じて前記表示形態の種類を設定する処理を有することを特徴とする画像表示方法。
The image display method according to any one of claims 1 to 8,
An image display method comprising: setting a type of the display form in accordance with a size of an arrangement area to be displayed and a position in the image data.
請求項9に記載の画像表示方法において、
表示される配置領域の大きさ、前記画像データにおける位置及び前記表示形態の種類に応じて、かつ、前記画像データの中心の領域が表示されるように、前記経時的に変化する表示形態の開始状態及び終了状態を設定する処理を有することを特徴とする画像表示方法。
The image display method according to claim 9,
Start of the display form that changes over time according to the size of the arrangement area to be displayed, the position in the image data, and the type of the display form, and so that the central area of the image data is displayed. An image display method comprising a process of setting a state and an end state.
顔データを含む画像データを画面上に表示する画像表示装置であって、
前記顔データを認識し、前記画像データ内にて前記顔データが配置される領域となる配置領域を検出する顔認識手段と、
前記配置領域が少なくとも表示されるように経時的に変化する表示形態で前記画像データを表示する表示実行手段とを有する画像表示装置。
An image display device that displays image data including face data on a screen,
Face recognition means for recognizing the face data and detecting an arrangement area to be an area in which the face data is arranged in the image data;
An image display apparatus comprising: a display execution unit configured to display the image data in a display form that changes with time so that at least the arrangement area is displayed.
請求項11に記載の画像表示装置において、
前記顔認識手段にて認識された顔データに応じて前記配置領域に重要度を設定する重要度設定手段と、
前記重要度が所定値以上となる配置領域を含む注目領域を設定する注目領域設定手段とを有し、
前記表示実行手段は、前記注目領域設定手段にて設定された注目領域が少なくとも表示されるように経時的に変化する表示形態で前記画像データを表示することを特徴とする画像表示装置。
The image display device according to claim 11,
Importance setting means for setting importance in the arrangement area in accordance with the face data recognized by the face recognition means;
An attention area setting means for setting an attention area including an arrangement area where the importance is equal to or greater than a predetermined value;
The display execution means displays the image data in a display form that changes with time so that at least the attention area set by the attention area setting means is displayed.
請求項12に記載の画像表示装置において、
顔データを予め登録、管理する顔データ管理手段を有し、
前記顔認識手段は、前記認識された顔データと前記顔データ管理手段にて予め登録された顔データとを照合し、
前記重要度設定手段は、前記顔認識手段における照合の結果、前記認識された顔データと予め登録された顔データとが一致した場合、当該顔データの配置領域の重要度を高く設定することを特徴とする画像表示装置。
The image display device according to claim 12,
Having face data management means for pre-registering and managing face data;
The face recognition means collates the recognized face data with face data registered in advance by the face data management means,
The importance setting means sets the importance of the arrangement area of the face data high when the recognized face data matches the pre-registered face data as a result of the collation in the face recognition means. A characteristic image display device.
請求項13に記載の画像表示装置において、
前記顔データ管理手段は、少なくとも1つの画像データからなる画像データ群毎に、重要度を高く設定するための顔データを予め登録、管理することを特徴とする画像表示装置。
The image display device according to claim 13.
The face data management means registers and manages in advance face data for setting a high degree of importance for each image data group composed of at least one image data.
請求項13に記載の画像表示装置において、
前記顔データ管理手段にて予め登録された顔データのうち、表示される少なくとも1つの画像データからなる画像データ群に応じて配置領域の重要度を高くする顔データを選択する顔データ選択手段を有し、
前記重要度設定手段は、前記顔認識手段にて認識された顔データと前記顔データ選択手段にて選択された顔データとが一致した場合、当該顔データの配置領域の重要度を高く設定することを特徴とする画像表示装置。
The image display device according to claim 13.
Face data selection means for selecting face data that increases the importance of the arrangement area in accordance with an image data group composed of at least one image data to be displayed among face data registered in advance by the face data management means. Have
The importance level setting unit sets the importance level of the arrangement area of the face data to be high when the face data recognized by the face recognition unit matches the face data selected by the face data selection unit. An image display device characterized by that.
請求項12乃至15のいずれか1項に記載の画像表示装置において、
前記重要度設定手段は、前記顔認識手段にて検出された配置領域の前記画像データにおける中心からの距離が近いほど、当該配置領域の重要度を高く設定することを特徴とする画像表示装置。
The image display device according to any one of claims 12 to 15,
The image display apparatus according to claim 1, wherein the importance level setting unit sets the importance level of the arrangement region higher as the distance from the center of the image data of the arrangement region detected by the face recognition unit is shorter.
請求項12乃至16のいずれか1項に記載の画像表示装置において、
前記重要度設定手段は、前記顔認識手段にて検出された配置領域の大きさが大きいほど、当該配置領域の重要度を高く設定することを特徴とする画像表示装置。
The image display device according to any one of claims 12 to 16,
The image display apparatus according to claim 1, wherein the importance level setting unit sets the importance level of the arrangement area higher as the size of the arrangement area detected by the face recognition unit is larger.
請求項12乃至17のいずれか1項に記載の画像表示装置において、
前記重要度設定手段は、少なくとも1つの画像データからなる画像データ群について前記顔認識手段にて認識された数が多い顔データの配置領域の重要度を高く設定することを特徴とする画像表示装置。
The image display device according to any one of claims 12 to 17,
The importance level setting unit sets a high level of importance level of an arrangement area of face data that is recognized by the face recognition unit for an image data group including at least one image data. .
請求項11乃至18のいずれか1項に記載の画像表示装置において、
表示される配置領域の大きさ及び前記画像データにおける位置に応じて前記表示形態の種類を設定する表示パターン設定手段を有することを特徴とする画像表示装置。
The image display device according to any one of claims 11 to 18,
An image display device comprising display pattern setting means for setting a type of the display form in accordance with the size of the arrangement area to be displayed and the position in the image data.
請求項19のいずれか1項に記載の画像表示装置において、
表示される配置領域の大きさ、前記画像データにおける位置及び前記表示形態の種類に応じて、かつ、前記画像データの中心の領域が表示されるように、前記経時的に変化する表示形態の開始状態及び終了状態を設定する領域設定手段を有することを特徴とする画像表示装置。
The image display device according to claim 19,
Start of the display form that changes over time according to the size of the arrangement area to be displayed, the position in the image data, and the type of the display form, and so that the central area of the image data is displayed. An image display device comprising region setting means for setting a state and an end state.
コンピュータに、
該コンピュータに取り込まれた画像データに含まれる顔データを認識し、前記画像データ内にて前記顔データが配置される領域となる配置領域を検出する手順と、
前記配置領域が少なくとも表示されるように経時的に変化する表示形態で前記画像データを表示する手順とを実行させるためのプログラム。
On the computer,
Recognizing face data included in image data captured by the computer, and detecting an arrangement area that is an area in which the face data is arranged in the image data;
A program for executing the procedure of displaying the image data in a display form that changes with time so that the arrangement area is displayed at least.
請求項21に記載のプログラムにおいて、
前記コンピュータに、
前記認識された顔データに応じて前記配置領域に重要度を設定する手順と、
前記重要度が所定値以上となる配置領域が少なくとも表示されるように経時的に変化する表示形態で前記画像データを表示する手順とを実行させるためのプログラム。
The program according to claim 21, wherein
In the computer,
A procedure for setting importance in the arrangement area according to the recognized face data;
A program for executing a procedure for displaying the image data in a display form that changes with time so that at least an arrangement region having the importance level equal to or higher than a predetermined value is displayed.
請求項22に記載のプログラムにおいて、
前記コンピュータに、
前記認識された顔データと予め登録された顔データとを照合する手順と、
前記認識された顔データと予め登録された顔データとが一致した場合、当該顔データの配置領域の重要度を高く設定する手順とを実行させるためのプログラム。
The program according to claim 22,
In the computer,
A procedure for collating the recognized face data with previously registered face data;
A program for executing, when the recognized face data and face data registered in advance match, a procedure for setting the importance of the arrangement area of the face data high.
請求項23に記載のプログラムにおいて、
前記コンピュータに、
少なくとも1つの画像データからなる画像データ群毎に、重要度を高く設定するための顔データを予め登録、管理しておく手順を実行させるためのプログラム。
The program according to claim 23,
In the computer,
A program for executing a procedure for previously registering and managing face data for setting a high importance level for each image data group including at least one image data.
請求項23に記載のプログラムにおいて、
前記コンピュータに、
前記予め登録された顔データのうち、表示される少なくとも1つの画像データからなる画像データ群に応じて配置領域の重要度を高くする顔データを選択する手順と、
前記認識された顔データと選択された顔データとが一致した場合、当該顔データの配置領域の重要度を高く設定する手順とを実行させるためのプログラム。
The program according to claim 23,
In the computer,
A step of selecting face data that increases the importance of the arrangement area according to an image data group composed of at least one image data to be displayed among the previously registered face data;
A program for executing, when the recognized face data matches the selected face data, a procedure for setting the importance of the arrangement area of the face data high.
請求項22乃至25のいずれか1項に記載のプログラムにおいて、
前記コンピュータに、
前記検出された配置領域の前記画像データにおける中心からの距離が近いほど、当該配置領域の重要度を高く設定する手順を実行させるためのプログラム。
The program according to any one of claims 22 to 25,
In the computer,
A program for executing a procedure for setting the importance of an arrangement area higher as the distance from the center of the detected arrangement area in the image data is closer.
請求項22乃至26のいずれか1項に記載のプログラムにおいて、
前記コンピュータに、
前記検出された配置領域の大きさが大きいほど、当該配置領域の重要度を高く設定する手順を実行させるためのプログラム。
In the program according to any one of claims 22 to 26,
In the computer,
A program for executing a procedure for setting a higher importance level of the arrangement area as the size of the detected arrangement area is larger.
請求項22乃至27のいずれか1項に記載のプログラムにおいて、
前記コンピュータに、
少なくとも1つの画像データからなる画像データ群について認識された数が多い顔データの配置領域の重要度を高く設定する手順を実行させるためのプログラム。
The program according to any one of claims 22 to 27,
In the computer,
A program for executing a procedure for setting the importance of a face data arrangement region having a large number of recognized image data groups composed of at least one image data to a high level.
請求項21乃至28のいずれか1項に記載のプログラムにおいて、
前記コンピュータに、
表示される配置領域の大きさ及び前記画像データにおける位置に応じて前記表示形態の種類を設定する手順を実行させるためのプログラム。
The program according to any one of claims 21 to 28,
In the computer,
A program for executing a procedure for setting the type of the display form in accordance with the size of the arrangement area to be displayed and the position in the image data.
請求項29に記載のプログラムにおいて、
前記コンピュータに、
表示される配置領域の大きさ、前記画像データにおける位置及び前記表示形態の種類に応じて、かつ、前記画像データの中心の領域が表示されるように、前記経時的に変化する表示形態の開始状態及び終了状態を設定する手順を実行させるためのプログラム。
The program according to claim 29,
In the computer,
Start of the display form that changes over time according to the size of the arrangement area to be displayed, the position in the image data, and the type of the display form, and so that the central area of the image data is displayed. A program for executing a procedure for setting a state and an end state.
JP2005091880A 2005-03-28 2005-03-28 Image display method, image display device and program Pending JP2006277038A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005091880A JP2006277038A (en) 2005-03-28 2005-03-28 Image display method, image display device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005091880A JP2006277038A (en) 2005-03-28 2005-03-28 Image display method, image display device and program

Publications (1)

Publication Number Publication Date
JP2006277038A true JP2006277038A (en) 2006-10-12

Family

ID=37211774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005091880A Pending JP2006277038A (en) 2005-03-28 2005-03-28 Image display method, image display device and program

Country Status (1)

Country Link
JP (1) JP2006277038A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269406A (en) * 2007-04-23 2008-11-06 Fujifilm Corp Image output managing device, method and program
JP2009071748A (en) * 2007-09-18 2009-04-02 Nikon System:Kk Image evaluation apparatus, camera with the same apparatus, image evaluation method, feature information registering method, slide show generating method, and program capable of executing those methods
JP2012160212A (en) * 2012-05-18 2012-08-23 Canon Inc Image data identification method, imaging device, program, and storage medium
JP2012164321A (en) * 2012-03-12 2012-08-30 Fujifilm Corp Image output management device, method and program
JP2013140438A (en) * 2011-12-28 2013-07-18 Canon Inc Image processing device, imaging device, control method, and program
JP2015118142A (en) * 2013-12-17 2015-06-25 カシオ計算機株式会社 Image display device, image display program, and image display method
JP2017010567A (en) * 2012-11-14 2017-01-12 フェイスブック,インク. Image panning and zooming effect

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269406A (en) * 2007-04-23 2008-11-06 Fujifilm Corp Image output managing device, method and program
JP2009071748A (en) * 2007-09-18 2009-04-02 Nikon System:Kk Image evaluation apparatus, camera with the same apparatus, image evaluation method, feature information registering method, slide show generating method, and program capable of executing those methods
JP2013140438A (en) * 2011-12-28 2013-07-18 Canon Inc Image processing device, imaging device, control method, and program
JP2012164321A (en) * 2012-03-12 2012-08-30 Fujifilm Corp Image output management device, method and program
JP2012160212A (en) * 2012-05-18 2012-08-23 Canon Inc Image data identification method, imaging device, program, and storage medium
JP2017010567A (en) * 2012-11-14 2017-01-12 フェイスブック,インク. Image panning and zooming effect
JP2018060552A (en) * 2012-11-14 2018-04-12 フェイスブック,インク. Image panning and zooming effect
US10459621B2 (en) 2012-11-14 2019-10-29 Facebook, Inc. Image panning and zooming effect
JP2015118142A (en) * 2013-12-17 2015-06-25 カシオ計算機株式会社 Image display device, image display program, and image display method

Similar Documents

Publication Publication Date Title
JP4640456B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
TWI375917B (en) Image processing apparatus, imaging apparatus, image processing method, and computer program
JP4914398B2 (en) Facial expression recognition device, imaging device, method and program
US9280649B2 (en) Apparatus and method for detecting an object from an image
JP6132490B2 (en) Authentication apparatus, authentication method, and program
JP2007241496A (en) Image processor, image processing method, and program
JP4474885B2 (en) Image classification device and image classification program
EP2712176B1 (en) Method and apparatus for photography
JP4724242B2 (en) Electronic apparatus and image display method
JP2014050022A (en) Image processing device, imaging device, and program
JP2006277038A (en) Image display method, image display device and program
JP2013121097A (en) Imaging apparatus, imaging method, image generating apparatus, image generating method and program
JP5446035B2 (en) Imaging apparatus, imaging method, and program
JP6332864B2 (en) Image processing apparatus, image processing method, and program
JP2008211506A (en) Image processing apparatus, imaging apparatus and its program
JP2005352727A (en) Portrait retrieving device
KR102066857B1 (en) object image tracking streaming system and method using the same
JP2022161107A (en) Electronic apparatus and control method
JP5404172B2 (en) Image processing apparatus, control method thereof, and program
JP2008098755A (en) Imaging apparatus and method
JP6512208B2 (en) Image processing apparatus, image processing method and program
JP6289107B2 (en) Image reproduction apparatus, control method thereof, and control program
JP5267183B2 (en) Image layout apparatus and program
JP5434096B2 (en) Digital camera
JP5570348B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090507

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090610