JP2010283691A - Image specifying device, display controlling device, image specifying program, and display controlling program - Google Patents

Image specifying device, display controlling device, image specifying program, and display controlling program Download PDF

Info

Publication number
JP2010283691A
JP2010283691A JP2009136613A JP2009136613A JP2010283691A JP 2010283691 A JP2010283691 A JP 2010283691A JP 2009136613 A JP2009136613 A JP 2009136613A JP 2009136613 A JP2009136613 A JP 2009136613A JP 2010283691 A JP2010283691 A JP 2010283691A
Authority
JP
Japan
Prior art keywords
image
state
image data
specifying
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009136613A
Other languages
Japanese (ja)
Other versions
JP5293422B2 (en
Inventor
Shigeru Kafuku
滋 加福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009136613A priority Critical patent/JP5293422B2/en
Publication of JP2010283691A publication Critical patent/JP2010283691A/en
Application granted granted Critical
Publication of JP5293422B2 publication Critical patent/JP5293422B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image specifying device for specifying the image in which no subject of the same person of the predetermined user shows up, and to provide a display controlling device, an image specifying program, and a display controlling program. <P>SOLUTION: An image specifying device 1 obtaining photographed image data with the front of the display surface of a displaying part 40 photographed includes: a state detecting means 10b for detecting the state of the subject-photographed of the photographed image by analyzing the obtained photographed image data; and an image specifying means 10a for specifying the image data of the image displayed to the displaying part on the basis of the state of the subject-photographed detected by the state detecting means. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像特定装置、表示制御装置、画像特定プログラム、及び、表示制御プログラムに関する。   The present invention relates to an image specifying device, a display control device, an image specifying program, and a display control program.

この種の技術として、例えば、特許文献1には、再生表示中の撮影画面上において人物Aを指でタッチすると、人物Aに対応する画像データに基づいて顔位置情報と顔情報とが抽出され、メモリに格納され、この顔位置情報と顔情報とに基づいて、記録媒体内に記録された画像の中から人物Aの含まれる画像が検索される技術が開示されている。   As this type of technology, for example, in Patent Document 1, when a person A is touched with a finger on a reproduction display screen, face position information and face information are extracted based on image data corresponding to the person A. A technique is disclosed in which an image including the person A is retrieved from images stored in a memory and recorded on a recording medium based on the face position information and the face information.

また、特許文献2には、個人認証装置は、記録メディアに記録されている最終の画像ファイル(最後に記録された画像ファイル)から検出された顔Xの特徴量の情報を取得して、記録メディア内の他の画像ファイルの顔の特徴量と比較し、記録メディアに記録された画像ファイルの中から、最後の記録に係る画像ファイルと同一人物の顔を含む画像ファイル(関連画像)を特定する技術が開示されている。   Further, in Patent Document 2, the personal authentication device acquires information about the feature amount of the face X detected from the last image file (last recorded image file) recorded on the recording medium, and records it. Compared with the facial features of other image files in the media, the image file containing the same person's face as the last recorded image file (related image) is identified from the image files recorded on the recording media Techniques to do this are disclosed.

特開2007−310813号公報JP 2007-310813 A 特開2007−329679号公報JP 2007-329679 A

しかしながら、特許文献1及び2は、複数の画像から所定のユーザと同一人物の被写体(例えば顔)が写った画像を特定する技術を開示するのみであった。   However, Patent Documents 1 and 2 only disclose a technique for specifying an image in which a subject (for example, a face) of the same person as a predetermined user is captured from a plurality of images.

上記点に鑑み、本発明は、新たな基準によって、所定のユーザと同一人物の被写体が写っていない画像も特定できる画像特定装置、表示制御装置、画像特定プログラム、及び、表示制御プログラムを提供することを目的とする。   In view of the above, the present invention provides an image specifying device, a display control device, an image specifying program, and a display control program that can specify an image in which a subject of the same person as a predetermined user is not captured based on a new standard. For the purpose.

本発明の第一の観点に係る画像特定装置は、
表示部の表示面の前方を撮影した撮影画像のデータである撮影画像データを取得し、取得した前記撮影画像データを分析して前記撮影画像における撮影対象の状態を検出する状態検出手段と、
前記状態検出手段が検出した前記撮影対象の状態に基づいて前記表示部に表示する画像の画像データを特定する画像特定手段と、
を備える。
An image specifying device according to a first aspect of the present invention is:
State detection means for acquiring captured image data, which is data of a captured image captured in front of the display surface of the display unit, and analyzing the acquired captured image data to detect a state of a capturing target in the captured image;
Image specifying means for specifying image data of an image to be displayed on the display unit based on the state of the photographing target detected by the state detecting means;
Is provided.

本発明の第二の観点に係る表示制御装置は、
表示部に画像を表示させる表示制御装置であって、
予め撮影された画像データの画像であって、前記表示部の前方の人物又は動物の状態と一定の関係を満たす状態にある人物又は動物が写った画像を前記表示部に表示させる制御部を備える。
The display control device according to the second aspect of the present invention is:
A display control device for displaying an image on a display unit,
A control unit that displays on the display unit an image of a pre-photographed image data that shows a person or animal in a state that satisfies a certain relationship with the state of the person or animal in front of the display unit; .

本発明の第三の観点に係る画像特定プログラムは、
コンピュータに、
表示部の表示面の前方を撮影した撮影画像のデータである撮影画像データを取得し、取得した前記撮影画像データを分析して前記撮影画像における撮影対象の状態を検出する状態検出ステップと、
前記状態検出ステップで検出した前記撮影対象の状態に基づいて前記表示部に表示する画像の画像データを特定する画像特定ステップと、
を行わせる。
The image specifying program according to the third aspect of the present invention is:
On the computer,
A state detection step of acquiring captured image data, which is data of a captured image captured in front of the display surface of the display unit, and analyzing the acquired captured image data to detect a state of a capturing target in the captured image;
An image specifying step for specifying image data of an image to be displayed on the display unit based on the state of the photographing target detected in the state detecting step;
To do.

本発明の第四の観点に係る表示制御プログラムは、
表示部に画像を表示させるコンピュータに、
予め撮影された画像データの画像であって、前記表示部の前方の人物又は動物の状態と一定の関係を満たす状態にある人物又は動物が写った画像を前記表示部に表示させるステップ
を行わせる。
The display control program according to the fourth aspect of the present invention is:
On the computer that displays the image on the display,
Causing the display unit to display an image of a pre-captured image data in which a person or animal in a state satisfying a certain relationship with the state of the person or animal in front of the display unit is captured. .

本発明に係る画像特定装置、表示制御装置、画像特定プログラム、及び、表示制御プログラムによれば、新たな基準によって、所定のユーザと同一人物の被写体が写っていない画像も特定できる。   According to the image specifying device, the display control device, the image specifying program, and the display control program according to the present invention, it is possible to specify an image in which a subject of the same person as the predetermined user is not captured based on a new standard.

本発明の一実施形態に係る画像特定装置の各部の関係を示すブロック図である。It is a block diagram which shows the relationship of each part of the image specific device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像特定装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the image specific device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像特定装置を正面から見た正面図である。It is the front view which looked at the image specific device concerning one embodiment of the present invention from the front. 本発明の一実施形態に係る画像特定装置が行う画像特定・表示処理を示すフローチャートである。It is a flowchart which shows the image specification / display process which the image specific device which concerns on one Embodiment of this invention performs. 本発明の一実施形態に係る画像特定装置が行う記録画像データの処理を説明するための図である。It is a figure for demonstrating the process of the recording image data which the image specific device which concerns on one Embodiment of this invention performs. 本発明の一実施形態に係る画像特定装置が生成する被写体状態情報のデータ内容の一例を示す図である。It is a figure which shows an example of the data content of the object state information which the image specific device which concerns on one Embodiment of this invention produces | generates. 本発明の一実施形態に係る画像特定装置が生成する記録画像情報のデータ内容の一例を示す図である。It is a figure which shows an example of the data content of the recording image information which the image specific device which concerns on one Embodiment of this invention produces | generates. 本発明の一実施形態に係る画像特定装置が生成する記録画像情報データテーブルのデータ内容の一例を示す図である。It is a figure which shows an example of the data content of the recording image information data table which the image specific device which concerns on one Embodiment of this invention produces | generates. 本発明の一実施形態に係る画像特定装置が行う撮影画像データの処理を説明するための図である。It is a figure for demonstrating the process of the picked-up image data which the image specific device which concerns on one Embodiment of this invention performs. 本発明の一実施形態に係る画像特定装置が生成する撮影対象状態情報のデータ内容の一例を示す図である。It is a figure which shows an example of the data content of the imaging | photography target state information which the image specific device which concerns on one Embodiment of this invention produces | generates. 本発明の一実施形態に係る画像特定装置が生成する撮影画像情報のデータ内容の一例を示す図である。It is a figure which shows an example of the data content of the picked-up image information which the image specific device which concerns on one Embodiment of this invention produces | generates. 本発明の一実施形態に係る画像特定装置が表示する画像と撮影対象との関係の一例を説明する図である。It is a figure explaining an example of the relationship between the image and imaging | photography object which the image specific device which concerns on one Embodiment of this invention displays. 本発明の一実施形態に係る画像特定装置が表示する画像と撮影対象との関係の他の例を説明する図である。It is a figure explaining the other example of the relationship between the image which the image specific device which concerns on one Embodiment of this invention displays, and imaging | photography object. 本発明の一実施形態に係る画像特定装置が表示する画像と撮影対象との関係の他の例を説明する図である。It is a figure explaining the other example of the relationship between the image which the image specific device which concerns on one Embodiment of this invention displays, and imaging | photography object. 本発明の一実施形態に係る画像特定装置が表示する画像と撮影対象との関係の他の例を説明する図である。It is a figure explaining the other example of the relationship between the image which the image specific device which concerns on one Embodiment of this invention displays, and imaging | photography object. 本発明の一実施形態に係る画像特定装置が生成する記録画像情報のデータ内容の他の例を示す図である。It is a figure which shows the other example of the data content of the recording image information which the image specific device which concerns on one Embodiment of this invention produces | generates. 本発明の一実施形態に係る画像特定装置が生成する撮影画像情報のデータ内容の他の例を示す図である。It is a figure which shows the other example of the data content of the picked-up image information which the image specific device which concerns on one Embodiment of this invention produces | generates. 本発明の一実施形態に係る画像特定装置が表示する画像と撮影対象との関係の他の例を説明する図である。It is a figure explaining the other example of the relationship between the image which the image specific device which concerns on one Embodiment of this invention displays, and imaging | photography object. 本発明の一実施形態に係る画像特定装置が表示する画像と撮影対象との関係の他の例を説明する図である。It is a figure explaining the other example of the relationship between the image which the image specific device which concerns on one Embodiment of this invention displays, and imaging | photography object.

本発明の一実施形態について図面を参照して説明する。なお、本発明は下記の実施形態及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で下記の実施形態及び図面に変更を加えることが出来るのはもちろんである。本発明に係る画像特定装置は、例えばコンピュータによって実現される。また、本発明に係る画像特定装置は、表示制御装置であってもよい。   An embodiment of the present invention will be described with reference to the drawings. In addition, this invention is not limited by the following embodiment and drawing. It goes without saying that the following embodiments and drawings can be modified without changing the gist of the present invention. The image specifying apparatus according to the present invention is realized by a computer, for example. The image specifying device according to the present invention may be a display control device.

本実施形態に係る画像特定装置1は、デジタルフォトスタンド(デジタルフォトフレームともいう。)である(図3参照)。デジタルフォトスタンドは、画像(例えば、デジタルカメラで撮影したデジタル写真)を表示再生する。   The image specifying device 1 according to the present embodiment is a digital photo stand (also referred to as a digital photo frame) (see FIG. 3). The digital photo stand displays and reproduces images (for example, digital photos taken with a digital camera).

まず、画像特定装置1の構成を説明する。図1のように、画像特定装置1は、制御部10と、記憶部20と、撮影部30と、表示部40と、入力部50と、読出部60と、を備える。なお、各部の機能の少なくとも一部は、ネットワークを介して画像特定装置1と通信可能な他の装置に設けても良い。   First, the configuration of the image specifying device 1 will be described. As shown in FIG. 1, the image specifying device 1 includes a control unit 10, a storage unit 20, a photographing unit 30, a display unit 40, an input unit 50, and a reading unit 60. Note that at least some of the functions of the respective units may be provided in another device that can communicate with the image specifying device 1 via a network.

制御部10は、各部の制御を行い、画像特定装置1全体の制御を行う。また、制御部10は、画像特定部10aと、状態検出部10bと、を備え、後述の画像特定・表示処理を行う。   The control unit 10 controls each unit and controls the entire image specifying apparatus 1. The control unit 10 includes an image specifying unit 10a and a state detecting unit 10b, and performs image specifying / display processing described later.

記憶部20は、後述のメモリーカード100から読み出した記録画像データ、及び、後述の画像特定・表示処理で生成したデータ等のデータを必要に応じて記憶する。   The storage unit 20 stores data such as recorded image data read from the memory card 100 described later and data generated by image specifying / display processing described later as necessary.

撮影部30の少なくとも一部(撮影装置31の少なくとも一部)は、撮影レンズが表示部40の表示面の前方を向くように、表示部40のフレーム等に固定される(図3参照)。撮影部30は、制御部10の制御のもと、表示部40の表示面の前方を撮影する。ここで、表示面の前方とは、例えば、表示面の光の出射方向の少なくとも一部、又は、表示面の法線方向から一定範囲方向として規定される。撮影部30は、表示部40の前方を撮像し、撮像した静止画像を表す撮像信号を生成し、生成した撮像信号をもとに、デジタルの静止画像元データを生成する。撮影部30は、生成した静止画像元データを制御部10に順次供給する。このようにして、撮影部30は静止画像の連続である動画像を撮影する。   At least a part of the imaging unit 30 (at least a part of the imaging device 31) is fixed to the frame of the display unit 40 or the like so that the imaging lens faces the front of the display surface of the display unit 40 (see FIG. 3). The imaging unit 30 images the front of the display surface of the display unit 40 under the control of the control unit 10. Here, the front of the display surface is defined as, for example, at least a part of the light emission direction of the display surface or a certain range direction from the normal direction of the display surface. The imaging unit 30 images the front of the display unit 40, generates an imaging signal representing the captured still image, and generates digital still image original data based on the generated imaging signal. The imaging unit 30 sequentially supplies the generated still image original data to the control unit 10. In this way, the imaging unit 30 captures a moving image that is a sequence of still images.

表示部40は、制御部10の制御のもと、画像を表示する。特に、表示部40は、記録画像データによって表現される記録画像を表示する。   The display unit 40 displays an image under the control of the control unit 10. In particular, the display unit 40 displays a recorded image expressed by recorded image data.

入力部50は、ユーザの操作入力を受け付け、受け付けた操作に対応する操作入力データを制御部10に供給する。   The input unit 50 receives a user operation input and supplies operation input data corresponding to the received operation to the control unit 10.

メモリーカード100は、複数の記録画像データを記憶する。この記録画像データは、予め撮影されて所定の記憶媒体に記録される画像データであればよく、記録される媒体はメモリーカード100に限られない。また、記録画像データによって表現される画像を記録画像という。   The memory card 100 stores a plurality of recorded image data. The recorded image data may be image data that is previously captured and recorded on a predetermined storage medium, and the recording medium is not limited to the memory card 100. An image expressed by recorded image data is referred to as a recorded image.

読出部60は、制御部10の制御のもと、メモリーカード100から所定の記録画像データを読み出し、制御部10に供給する。   The reading unit 60 reads predetermined recording image data from the memory card 100 under the control of the control unit 10 and supplies it to the control unit 10.

次に、画像特定装置1のハードウェア構成の一例を説明する。画像特定装置1は、図2のように、CPU(Central Processing Unit)11と、一次記憶装置12と、二次記憶装置21と、撮影装置31と、駆動回路41と、表示パネル42と、入力装置51と、読出装置61と、を備える。   Next, an example of the hardware configuration of the image specifying device 1 will be described. As shown in FIG. 2, the image specifying device 1 includes a CPU (Central Processing Unit) 11, a primary storage device 12, a secondary storage device 21, a photographing device 31, a drive circuit 41, a display panel 42, and an input. A device 51 and a reading device 61 are provided.

図1の制御部10は、例えば、CPU11と、一次記憶装置12と、によって構成される。一次記憶装置12は、RAM(Random Access Memory)等によって構成される。制御部10は、CPU11と、ASIC(Application Specific Integrated Circuit:特定用途向け集積回路)等と、を含んで構成されてもよい。この場合、CPU11が行う後述の画像特定・表示処理の一部(画像データの処理等)をASIC等が行う。ASICは、例えば、DSP(Digital Signal Processor)である。   The control unit 10 in FIG. 1 includes, for example, a CPU 11 and a primary storage device 12. The primary storage device 12 is configured by a RAM (Random Access Memory) or the like. The control unit 10 may include a CPU 11, an ASIC (Application Specific Integrated Circuit), and the like. In this case, an ASIC or the like performs a part of image specifying / displaying processing (processing of image data and the like) described later by the CPU 11. The ASIC is, for example, a DSP (Digital Signal Processor).

図1の記憶部20は、二次記憶装置21によって構成される。二次記憶装置21は、フラッシュメモリ又はハードディスク等によって構成される。二次記憶装置21は、画像特定プログラム25を記録している。画像特定プログラム25は、一次記憶装置12に展開される。   The storage unit 20 in FIG. 1 includes a secondary storage device 21. The secondary storage device 21 is configured by a flash memory or a hard disk. The secondary storage device 21 records an image specifying program 25. The image specifying program 25 is expanded in the primary storage device 12.

CPU11は、一次記憶装置12に展開された画像特定プログラム25の指令に基づいて後述の画像特定・表示処理を行う。また、一次記憶装置12にはCPU11が処理するデータが記録される。制御部10が他の部から受け取る又は制御部10が他の部に供給するデータは、例えば、一旦、一次記憶装置12に記録されることになる。CPU11は一次記憶装置12に記録されたデータを読み出し演算等して、演算結果のデータを一次記憶装置12に記録する。一次記憶装置12には、CPU11の作業領域が設けられる。なお、制御部10が備える画像特定部10aと、状態検出部10bとは、それぞれ、画像特定プログラム25に従って後述の画像特定・表示処理の一部を行うCPU11と、一次記憶装置12の所定の記憶領域と、によって構成される。   The CPU 11 performs an image specifying / displaying process, which will be described later, based on a command of the image specifying program 25 developed in the primary storage device 12. The primary storage device 12 records data processed by the CPU 11. Data received by the control unit 10 from other units or supplied to the other units by the control unit 10 is temporarily recorded in the primary storage device 12, for example. The CPU 11 reads out the data recorded in the primary storage device 12 and performs computations, etc., and records the computation result data in the primary storage device 12. The primary storage device 12 is provided with a work area for the CPU 11. The image specifying unit 10a and the state detecting unit 10b included in the control unit 10 are respectively a CPU 11 that performs a part of image specifying / displaying process described later according to the image specifying program 25, and a predetermined storage in the primary storage device 12. Area.

一次記憶装置12及び二次記憶装置21は、後述のメモリーカード100から読み出した記録画像データ、及び、後述の画像特定・表示処理で使用するデータ等のデータを記憶する。また、一次記憶装置12及び二次記憶装置21が記憶するデータは、CPU11によって、必要に応じて消去又は他のデータによって上書きされる。   The primary storage device 12 and the secondary storage device 21 store data such as recording image data read from the memory card 100 described later and data used in image specifying / display processing described later. The data stored in the primary storage device 12 and the secondary storage device 21 is erased or overwritten by other data as necessary by the CPU 11.

画像特定プログラム25は、持ち運び可能な記憶媒体等に記録されてもよい。持ち運び可能な記憶媒体は、例えば、CD−ROM(Compact Disk Read Only Memory)又はDVD−ROM(Digital Versatile Disk Read Only Memory)等である。画像特定プログラム25は、持ち運び可能な記憶媒体から各種の読取装置を介して画像特定装置1にインストールされてもよい。また、画像特定プログラム25は、インターネット等のネットワークから各種の通信部を介して画像特定装置1にダウンロード及びインストールされてもよい。また、画像特定プログラム25は、画像特定装置1と通信可能なサーバ等の記憶装置に格納されて、CPU11への指示を行っても良い。画像特定プログラム25を記憶した読み取り可能な記憶媒体(例えば、RAM、ROM(Read Only Memory)、CD−R、DVD−R、ハードディスク、又は、フラッシュメモリ)は、コンピュータが読み取り可能なプログラム製品となる。   The image specifying program 25 may be recorded on a portable storage medium or the like. The portable storage medium is, for example, a CD-ROM (Compact Disk Read Only Memory) or a DVD-ROM (Digital Versatile Disk Read Only Memory). The image specifying program 25 may be installed in the image specifying apparatus 1 via various reading devices from a portable storage medium. The image specifying program 25 may be downloaded and installed in the image specifying device 1 from various networks such as the Internet via various communication units. The image specifying program 25 may be stored in a storage device such as a server that can communicate with the image specifying device 1 and instruct the CPU 11. A readable storage medium (for example, a RAM, a ROM (Read Only Memory), a CD-R, a DVD-R, a hard disk, or a flash memory) that stores the image specifying program 25 is a program product that can be read by a computer. .

図1の撮影部30は撮影装置31(図3も参照)から構成される。撮影装置31は、撮影レンズが表示パネル42の表示面の前方を向くように、撮影装置31の少なくとも一部が表示部40のフレーム等に固定される(図3参照)。撮影装置31は、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備えるカメラ等によって構成される。撮像素子は、一定周期毎の像のRGB(Red Green Blue)値の各色の光の強さを光電変換して撮像信号を順次生成する。撮影装置31は、撮像信号に各種処理を行って、デジタルの静止画像元データを順次生成する。このようにして、撮影装置31は、表示パネル42(表示部40)の前方を順次撮像し、撮像した静止画像を表す撮像信号を生成し、生成した撮像信号をもとに、デジタルの静止画像元データを順次生成する。撮影装置31は、生成した静止画像元データを、例えば、一次記憶装置12に順次供給する。一次記憶装置12は、供給された静止画像元データを順次受け取って、受け取った静止画像元データを記憶する。CPU11は、一次記憶装置12が記憶する静止画像元データを用いて後述の処理を行う。なお、上記の各種処理としては、例えば、相関二重サンプリング(Correlated Double Sampling)、サンプリング後の撮像信号に施す自動利得調整(Automatic Gain Control)、及び、自動利得調整後のアナログの撮像信号をデジタル信号に変換するアナログ・デジタル変換等がある。連続する静止画像元データは、動画像の元データとなる。   The imaging unit 30 in FIG. 1 includes an imaging device 31 (see also FIG. 3). In the imaging device 31, at least a part of the imaging device 31 is fixed to a frame or the like of the display unit 40 so that the imaging lens faces the front of the display surface of the display panel 42 (see FIG. 3). The imaging device 31 is configured by a camera or the like including an imaging element such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The image pickup device sequentially generates image pickup signals by photoelectrically converting the intensity of light of each color of RGB (Red Green Blue) values of an image for every fixed period. The imaging device 31 performs various processes on the imaging signal to sequentially generate digital still image original data. In this way, the imaging device 31 sequentially images the front of the display panel 42 (display unit 40), generates an imaging signal representing the captured still image, and based on the generated imaging signal, a digital still image The original data is generated sequentially. The imaging device 31 sequentially supplies the generated still image original data to, for example, the primary storage device 12. The primary storage device 12 sequentially receives the supplied still image original data and stores the received still image original data. The CPU 11 performs processing described later using the still image original data stored in the primary storage device 12. In addition, as said various processes, for example, correlated double sampling (Correlated Double Sampling), the automatic gain adjustment (Automatic Gain Control) applied to the imaging signal after sampling, and the analog imaging signal after automatic gain adjustment are converted into digital There are analog / digital conversion to convert to signal. The continuous still image original data is the original data of the moving image.

図1の表示部40は、駆動回路41と、表示パネル42(図3も参照)と、によって構成される。駆動回路41には、記録画像データの記録画像を表す再生データが供給される。駆動回路41は、供給された再生データを受け取り、受け取った再生データに基づいて表示パネル42を駆動し、表示パネル42に記録画像を再生表示する。表示パネル42は、例えば、液晶表示パネル又は有機EL表示パネル等によって構成される。このように、表示パネル42は、CPU11の制御のもと、記録画像データが表現する記録画像を表示する。   The display unit 40 in FIG. 1 includes a drive circuit 41 and a display panel 42 (see also FIG. 3). The drive circuit 41 is supplied with reproduction data representing a recorded image of the recorded image data. The drive circuit 41 receives the supplied reproduction data, drives the display panel 42 based on the received reproduction data, and reproduces and displays the recorded image on the display panel 42. The display panel 42 is configured by, for example, a liquid crystal display panel or an organic EL display panel. As described above, the display panel 42 displays the recorded image represented by the recorded image data under the control of the CPU 11.

図1の入力部50は、入力装置51によって構成される。入力装置51は、例えば、再生キー、特定キー、停止キー等を備える。ユーザがこれらのキーを操作すると、入力装置51は各キーに応じた操作入力データを一次記憶装置12に供給する。一次記憶装置12は供給された操作入力データを受け取り、受け取った操作入力データを記憶する。CPU11は、一次記憶装置12が記憶する操作入力データを用いて後述の処理を行う。   The input unit 50 in FIG. 1 includes an input device 51. The input device 51 includes, for example, a reproduction key, a specific key, a stop key, and the like. When the user operates these keys, the input device 51 supplies operation input data corresponding to each key to the primary storage device 12. The primary storage device 12 receives the supplied operation input data and stores the received operation input data. The CPU 11 performs processing described later using the operation input data stored in the primary storage device 12.

なお、図1の表示部40と入力部50とをタッチパネルによって構成してもよい。この場合、表示パネル42及び入力装置51は、タッチパネルによって構成される。タッチパネルは、所定の入力画面を表示するとともに、操作入力データを一次記憶装置12に供給する。   In addition, you may comprise the display part 40 and the input part 50 of FIG. 1 with a touch panel. In this case, the display panel 42 and the input device 51 are configured by a touch panel. The touch panel displays a predetermined input screen and supplies operation input data to the primary storage device 12.

メモリーカード100は、フラッシュメモリタイプのメモリーカード等によって構成される。メモリーカードとしては、デジタルカメラが撮影した画像のデータ(記録画像データ)を記録するSDメモリーカード等がある。   The memory card 100 is configured by a flash memory type memory card or the like. Examples of the memory card include an SD memory card that records image data (recorded image data) taken by a digital camera.

図1の読出部60は、読出装置61によって構成される。読出装置61は、メモリーカード100に記録された記録画像データを読み出す適宜の装置によって構成される。読出装置61は、メモリーカード100に記録された記録画像データを読み出し、読み出した記録画像データを一次記憶装置12に供給する。一次記憶装置12は、供給された記録画像データを受け取り、受け取った記録画像データを記憶する。CPU11は、一次記憶装置12が記憶する記録画像データを用いて後述の処理を行う。   The reading unit 60 in FIG. 1 includes a reading device 61. The reading device 61 is configured by an appropriate device that reads recorded image data recorded on the memory card 100. The reading device 61 reads the recorded image data recorded on the memory card 100 and supplies the read recorded image data to the primary storage device 12. The primary storage device 12 receives the supplied recording image data and stores the received recording image data. The CPU 11 performs processing described later using the recorded image data stored in the primary storage device 12.

バス90は、このバス90に接続された各構成要素でやりとりされるデータ等を伝送する伝送路である。   The bus 90 is a transmission path for transmitting data and the like exchanged between the components connected to the bus 90.

次に画像特定装置1が行う画像特定・表示処理を図4乃至図19を参照して説明する。   Next, image identification / display processing performed by the image identification device 1 will be described with reference to FIGS.

この画像特定・表示処理は、ユーザによる入力部50の操作を契機として始まる。例えば、メモリーカード100が読出部60に挿入される等して、読出部60がメモリーカード100に記録された記録画像データを読み取り可能になった場合、画像特定装置1は表示部40にその旨を表示させる。そして、画像特定装置1は、ユーザが入力部50の再生キーを操作すると、画像特定・表示処理を開始する。なお、処理中、ユーザが入力部50の停止キーを操作すると、この処理が処理中であっても、画像特定装置1はこの処理を終了するものとする。また、メモリーカード100には所定数の記録画像データが記録されているものとする。ここでの記録画像データは、例えば、デジタルカメラ等で撮影された静止画像データであり、JPEG(Joint Photographic Experts Group)等のファイル形式になっている。なお、記録画像データは、AVI(Audio Video Interleave)等の動画像データであってもよい。   This image specifying / displaying process is triggered by the operation of the input unit 50 by the user. For example, when the memory card 100 is inserted into the reading unit 60 and the reading unit 60 becomes able to read the recorded image data recorded on the memory card 100, the image specifying device 1 informs the display unit 40 to that effect. Is displayed. Then, when the user operates the reproduction key of the input unit 50, the image specifying device 1 starts the image specifying / displaying process. When the user operates the stop key of the input unit 50 during the process, the image specifying apparatus 1 ends this process even if the process is being processed. Further, it is assumed that a predetermined number of recorded image data is recorded on the memory card 100. The recorded image data here is, for example, still image data taken with a digital camera or the like, and has a file format such as JPEG (Joint Photographic Experts Group). The recorded image data may be moving image data such as AVI (Audio Video Interleave).

画像特定部10aは、n=0を設定する(ステップS101)。nは、メモリーカード100から読み出す記録画像データの番号を示すものである。画像特定部10aは、n=n+1とする(ステップS102)。画像特定部10aは、読出部60を介してメモリーカード100に記録された記録画像データをn番目の画像データとして読み出す(ステップS103)。画像特定部10aは、この際、同一の記録画像データを重複して読み出さないようにする。   The image specifying unit 10a sets n = 0 (step S101). n indicates the number of recorded image data read from the memory card 100. The image specifying unit 10a sets n = n + 1 (step S102). The image specifying unit 10a reads the recorded image data recorded on the memory card 100 through the reading unit 60 as the nth image data (step S103). At this time, the image specifying unit 10a prevents the same recorded image data from being read repeatedly.

画像特定部10aは、読み出したn番目の記録画像データを分析する(ステップS104)。具体的には、例えば、画像特定部10aは、分析対象である記録画像データの記録画像における被写体を含む被写体領域の状態を検出することによって、n番目の記録画像データを分析する。このような分析によって、画像特定部10aは、n番目の記録画像データの記録画像における被写体の状態を検出する(ステップS104)。被写体領域は被写体を含むものである。このため、画像特定部10aは、例えば、被写体領域の状態を検出することによって、被写体の状態を検出する。   The image specifying unit 10a analyzes the read nth recorded image data (step S104). Specifically, for example, the image specifying unit 10a analyzes the n-th recorded image data by detecting the state of the subject region including the subject in the recorded image of the recorded image data to be analyzed. Through such analysis, the image specifying unit 10a detects the state of the subject in the recorded image of the nth recorded image data (step S104). The subject area includes the subject. Therefore, the image specifying unit 10a detects the state of the subject, for example, by detecting the state of the subject region.

なお、画像特定部10aは、n番目の記録画像データを分析するときに、この記録画像データの記録画像の縦横の辺の比を把握し、把握した縦横の辺の比が予め設定された辺の比と同じであるか判断する。予め設定された辺の比とは、例えば、後述の撮影画像及び表示部が表示する画像の辺の比である。例えば、撮影画像の辺の比は、表示部が表示する画像の辺の比(つまり、表示部40の表示面の辺の比)と同じに設定されている。両者の辺の比が同じである場合、画像特定部10aは、記録画像データを編集せずにそのまま被写体の状態の把握を試みる。両者の辺の比が異なる場合には、画像特定部10aは、記録画像の縦横の辺の比が予め設定された辺の比となるように、記録画像データを編集し、編集した記録画像データを分析して、被写体の状態の把握を試みる。例えば、記録画像の縦の辺の長さに対する記録画像の横の辺の長さが、予め設定された辺の比に対して短い場合、画像特定部10aは、記録画像を横方向中央に置いて、横方向両側の足りない部分に対応する二つの領域(足りない部分の辺×縦の辺の領域)に黒色等の画像又は所定の背景画像等を記録画像に付加した新たな記録画像データを生成することによって、記録画像データを編集する。また、記録画像の縦の辺の長さに対する記録画像の横の辺の長さが、予め設定された辺の比に対して長い場合、画像特定部10aは、例えば、画像の横方向の両端部の横の辺の長い部分に対応する二つの領域(長い部分の辺×縦の辺の領域)を削除した新たな記録画像データを生成することによって、記録画像データを編集する。画像特定部10aは、記録画像データを編集した場合、編集後の、つまり、編集によって新たに生成した、新たな画像データが予め撮影され記録された記録画像データであるとして、以下の処理で扱う。つまり、記録画像データは、適宜編集されたデータであってもよい。   When the image specifying unit 10a analyzes the n-th recorded image data, the image specifying unit 10a grasps the ratio of the vertical and horizontal sides of the recorded image of the recorded image data, and the grasped ratio of the vertical and horizontal sides is set in advance. It is judged whether it is the same as the ratio. The preset side ratio is, for example, a ratio of a side of an image displayed by a later-described captured image and a display unit. For example, the ratio of the sides of the captured image is set to be the same as the ratio of the sides of the image displayed by the display unit (that is, the ratio of the sides of the display surface of the display unit 40). When the ratio of both sides is the same, the image specifying unit 10a tries to grasp the state of the subject as it is without editing the recorded image data. If the ratio between the two sides is different, the image specifying unit 10a edits the recorded image data so that the ratio between the vertical and horizontal sides of the recorded image becomes a preset ratio of the sides, and the edited recorded image data And try to grasp the condition of the subject. For example, when the length of the horizontal side of the recorded image with respect to the length of the vertical side of the recorded image is shorter than the preset ratio of the side, the image specifying unit 10a places the recorded image at the center in the horizontal direction. New recorded image data in which an image such as black or a predetermined background image is added to the recorded image in two regions corresponding to the missing portion on both sides in the horizontal direction (side of the missing portion × vertical side region) The recorded image data is edited by generating. In addition, when the length of the horizontal side of the recorded image with respect to the length of the vertical side of the recorded image is longer than the ratio of the preset side, the image specifying unit 10a, for example, The recording image data is edited by generating new recording image data in which two regions corresponding to the long side portion of the part (long side × vertical side region) are deleted. When the recorded image data is edited, the image specifying unit 10a treats it as the recorded image data after being edited, that is, newly generated by editing and recorded and recorded in advance as follows. . That is, the recorded image data may be data edited as appropriate.

ここで、被写体とは、例えば、人物又は動物の特徴的部分である。特徴的部分とは、例えば、人物又は動物の顔である。特徴的部分は、画像特定装置1が画像上でこの特徴的部分を把握できる人物又は動物の少なくとも一部分であればよい。以下では被写体は、人物の顔であるとして説明する。   Here, the subject is, for example, a characteristic part of a person or an animal. The characteristic part is, for example, a human face or an animal face. The characteristic part may be at least a part of a person or an animal that allows the image specifying device 1 to grasp the characteristic part on the image. In the following description, it is assumed that the subject is a human face.

画像特定部10aは、例えば、記録画像データが表現する記録画像を複数の分割領域に分割するとともに、被写体を検出し、検出した被写体がどの分割領域に位置するかを把握し、把握した被写体の位置を示す情報を生成することによって、被写体の位置という被写体の状態を検出する。画像特定部10aは、被写体の位置の把握等に被写体領域の検出等を用いる。ここでは、被写体領域の状態がそのまま被写体の状態になる。   For example, the image specifying unit 10a divides the recorded image represented by the recorded image data into a plurality of divided areas, detects a subject, grasps which divided region the detected subject is located, and identifies the grasped subject. By generating information indicating the position, the state of the subject, which is the position of the subject, is detected. The image specifying unit 10a uses detection of a subject area or the like for grasping the position of the subject. Here, the state of the subject area is directly the state of the subject.

各分割領域は、例えば、図5に示す、記録画像データの記録画像を横方向に四分割した四つの分割領域A1乃至A4である。各分割領域は、これに限らず、例えば、画像の縦方向及び横方向に2分割した、画像を四分割した各領域(左上、左下、右上、及び、右下の各領域)であってもよい。   Each divided area is, for example, four divided areas A1 to A4 shown in FIG. 5 in which the recorded image of the recorded image data is divided into four in the horizontal direction. Each divided area is not limited to this, and may be, for example, each area (upper left, lower left, upper right, and lower right areas) obtained by dividing the image into four parts in the vertical and horizontal directions. Good.

図5の記録画像では、人物511と、人物512と、が写っている。そして、第1の被写体である、人物511の顔511aは分割領域A2内にある。また、第2の被写体である、人物512の顔512aは分割領域A4内にある。画像特定部10aは、顔(被写体)511aを含む顔領域(被写体領域)521及び顔(被写体)512aを含む顔領域(被写体領域)522を検出する。そして、画像特定部10aは、検出した顔領域521が分割領域A2内に位置すると把握する。また、画像特定部10aは、検出した顔領域522が分割領域A4内に位置すると把握する。画像特定部10aは、例えば、検出した顔領域の位置情報等により、顔領域がどの分割領域に位置するか把握する。これら顔領域の位置が顔の位置になるので、顔領域の位置によって被写体の位置がどの分割領域内に位置しているか把握されたことになる。   In the recorded image of FIG. 5, a person 511 and a person 512 are shown. The face 511a of the person 511, which is the first subject, is in the divided area A2. The face 512a of the person 512, which is the second subject, is in the divided area A4. The image specifying unit 10a detects a face area (subject area) 521 including a face (subject) 511a and a face area (subject area) 522 including a face (subject) 512a. Then, the image specifying unit 10a grasps that the detected face area 521 is located in the divided area A2. In addition, the image specifying unit 10a recognizes that the detected face area 522 is located in the divided area A4. For example, the image specifying unit 10a recognizes in which divided area the face area is located based on the position information of the detected face area. Since the positions of these face areas are the positions of the faces, it is understood in which divided area the position of the subject is located based on the position of the face area.

画像特定部10aは、被写体の状態(ここでは、各分割領域A1乃至A4内に顔領域があるか)を把握すると、把握した被写体の状態を示す情報である被写体状態情報を生成することで、被写体の状態を検出する。さらに、画像特定部10aは、生成した被写体状態情報を記憶部20に記録する(ステップS104)。このとき、画像特定部10aは、n番目の記録画像データを特定するための情報である記録画像特定情報と、n番目の記録画像データ(上記で編集した場合には、編集後の記録画像データ)と、を前記の被写体状態情報に対応付けて記憶部20に記録する(ステップS104)。記録画像特定情報は、ここでは、画像ナンバーであり、nの数字がそのまま用いられる。記録画像特定情報は、画像特定部10aが適宜生成した情報であってもよい。被写体状態情報と、記録画像特定情報と、画像データとを含む情報は、記録画像情報となる。なお、記録画像情報は、記録画像特定情報を含まなくてもよい。   When the image specifying unit 10a grasps the state of the subject (here, there is a face region in each of the divided regions A1 to A4), it generates subject state information that is information indicating the grasped subject state. Detect the state of the subject. Further, the image specifying unit 10a records the generated subject state information in the storage unit 20 (step S104). At this time, the image specifying unit 10a and the recording image specifying information, which is information for specifying the nth recorded image data, and the nth recorded image data (if edited above, the edited recorded image data Are associated with the subject state information and recorded in the storage unit 20 (step S104). Here, the recorded image specifying information is an image number, and the number n is used as it is. The recorded image specifying information may be information appropriately generated by the image specifying unit 10a. Information including the subject state information, the recorded image specifying information, and the image data is recorded image information. The recorded image information may not include recorded image specifying information.

ここで、図5の記録画像の被写体を分析して生成した被写体状態情報の内容を図6に示す。また、図5の記録画像の記録画像データが2番目の記録画像データであるとしたときの記録画像情報の内容を図7に示す。図5の記録画像では分割領域A2内と分割領域A4内に被写体(顔)が位置しているので、被写体状態情報は、図6及び図7のようにA1=×、A2=○、A3=×、A4=○という位置情報を含む。また、図7のように、図5の記録画像データの記録画像特定情報は「2」である。また、図7の記録画像データは図5の記録画像の記録画像データの内容(図7では「xxx」となっている。)になる。記録画像上に被写体が存在しない場合、画像特定部10aは、被写体が存在しないという被写体の状態を検出することになる。この場合、被写体状態情報は、A1=×、A2=×、A3=×、A4=×となる。   Here, FIG. 6 shows the contents of the subject state information generated by analyzing the subject of the recorded image of FIG. FIG. 7 shows the contents of the recorded image information when the recorded image data of the recorded image in FIG. 5 is the second recorded image data. Since the subject (face) is located in the divided area A2 and the divided area A4 in the recorded image of FIG. 5, the object state information includes A1 = x, A2 = O, and A3 = as shown in FIGS. X, position information A4 = ◯ is included. Further, as shown in FIG. 7, the record image specifying information of the record image data of FIG. 5 is “2”. Further, the recorded image data of FIG. 7 is the content of the recorded image data of the recorded image of FIG. 5 (“xxx” in FIG. 7). When no subject exists on the recorded image, the image specifying unit 10a detects the state of the subject that the subject does not exist. In this case, the subject state information is A1 = x, A2 = x, A3 = x, A4 = x.

なお、顔領域が複数の分割領域にまたがって位置する場合、画像特定部10aは、例えばこの顔領域を構成する画素を最も多く含む分割領域にこの顔領域が位置すると判断する等、予め定められた方法によって顔領域がどの分割領域に位置するかを判断する。なお、複数の分割領域が同じ数の前記顔領域の画素を含んでいる場合、画像特定部10aは、同じ数の画素を含む複数の分割領域のうちのランダムに決定した分割領域に前記顔領域が位置すると判断する等、予め定められた方法によって顔領域がどの分割領域に位置するかを判断する。   When the face area is located across a plurality of divided areas, the image specifying unit 10a is determined in advance, for example, by determining that the face area is located in a divided area including the most pixels constituting the face area. It is determined in which divided area the face area is located by the above method. When the plurality of divided areas include the same number of pixels of the face area, the image specifying unit 10a includes the face area in a randomly determined divided area among the plurality of divided areas including the same number of pixels. It is determined in which divided area the face area is positioned by a predetermined method, such as determining that the face area is located.

このステップS104で行われる撮影対象領域(特に顔領域)の検出については、公知の方法を採用できる。例えば、特開2000−105819号公報に記載の手法のように入力画像から肌色領域を抽出することによって顔領域を検出しても良いし、特開2006−211139号公報又は特開2006−72770号公報に記載の手法を用いて顔領域を検出しても良い。   A known method can be adopted for the detection of the photographing target area (particularly the face area) performed in step S104. For example, a face area may be detected by extracting a skin color area from an input image as in the method described in Japanese Patent Application Laid-Open No. 2000-105819, or Japanese Patent Application Laid-Open No. 2006-21111 or Japanese Patent Application Laid-Open No. 2006-72770. The face area may be detected using the method described in the publication.

例えば、画像特定部10aは、記録画像内に設定された着目領域の画像と所定のテンプレート顔画像とを対比して両画像の類似度を判定し、その類似度に基づいて着目領域に顔が含まれているか否かを判定する。つまり、両画像の類似度がある基準を満たす場合には、着目領域は顔領域である。つまり、画像特定部10aが顔領域を検出したことになる。類似判定は、顔であるか否かを識別するのに有効な特徴量を抽出することによって行う。特徴量は、水平エッジ、垂直エッジ、右斜めエッジ、及び、左斜めエッジ等である。   For example, the image specifying unit 10a compares the image of the region of interest set in the recorded image with a predetermined template face image to determine the similarity between both images, and the face is located in the region of interest based on the similarity. It is determined whether or not it is included. That is, when the similarity between both images satisfies a certain criterion, the region of interest is a face region. That is, the image specifying unit 10a has detected the face area. The similarity determination is performed by extracting a feature amount effective for identifying whether the face is a face. The feature amount is a horizontal edge, a vertical edge, a right diagonal edge, a left diagonal edge, or the like.

記録画像において着目領域は一画素ずつ左右方向又は上下方向にずらされる。そして、ずらされた後の着目領域内の画像とテンプレート顔画像とが対比されて、再度、両画像の類似度が判定される。このように、着目領域は、例えば記録画像の左上から右下方向に向けて1画素ずつずらされながら、更新設定される。また、記録画像を一定割合で縮小し、縮小後の画像に対して、同様の顔検出処理を行ってもよい。このような処理を繰り返すことにより、記録画像中から任意の大きさの顔領域を検出することができる。   In the recorded image, the region of interest is shifted in the horizontal direction or the vertical direction pixel by pixel. Then, the image in the region of interest after the shift is compared with the template face image, and the similarity between the two images is determined again. In this way, the region of interest is updated and set while being shifted pixel by pixel from the upper left to the lower right of the recorded image, for example. Alternatively, the recorded image may be reduced at a certain rate, and the same face detection process may be performed on the reduced image. By repeating such processing, a face region of an arbitrary size can be detected from the recorded image.

なお、記録画像データの画像が動画像である場合には、画像特定部10aは、例えば、前記と同様の各分割領域内に、所定時間以上(所定数以上のフレーム画像(動画を構成する静止画)に)留まる顔領域がいくつあるかを把握する。このようにして、画像特定部10aは、上記の被写体状態情報と同様のデータを生成できる。   Note that when the image of the recorded image data is a moving image, the image specifying unit 10a, for example, in each of the divided areas similar to the above, for a predetermined time or more (a predetermined number or more frame images (still images constituting a moving image Figure out how many facial areas remain). In this way, the image specifying unit 10a can generate data similar to the subject state information.

なお、画像データが動画像である場合の処理においては、画像特定部10aは、顔領域の追跡処理を行って、各分割領域内に、所定時間以上(所定数以上のフレーム画像(一定数動画を構成する静止画)に)留まる顔領域があるかを把握するとよい。   In the process when the image data is a moving image, the image specifying unit 10a performs the tracking process of the face area, and within each divided area for a predetermined time or more (a predetermined number or more of frame images (a certain number of moving images). It is good to know whether there is a face area that stays)

この場合、画像特定部10aは、この動画上の顔領域を追跡する。ここで、或るフレーム画像を基準フレーム画像と呼ぶ。画像特定部10aは、まず基準フレーム画像から顔領域を検出する。検出方法は、上記と同様である。そして、画像特定部10aは、基準フレームの次のフレームのフレーム画像内における顔領域を追跡処理によって特定する。ここで、時間的に互いに隣接する2つのフレーム画像を前フレーム画像及び現フレーム画像と呼ぶ。画像特定部10aは、前フレーム画像における顔の位置の近傍領域を探索領域とし、現フレーム画像の探索領域内で画像マッチング処理を行うことにより現フレーム画像の顔領域を検出することができる。画像マッチング処理では、例えば、前フレーム画像における顔の位置を中心とした矩形領域内の画像をテンプレート画像として、そのテンプレート画像と現フレーム画像の探索領域内の画像との類似性を計算することにより、現フレーム画像から顔領域を検出する。類似度に関する一定の条件を満たす探索領域が顔領域になる。画像特定部10aは、このような検出処理を繰り返し行うことで、基準フレーム画像にて検出された顔領域を、基準フレーム画像以降の動画像内で追跡する。   In this case, the image specifying unit 10a tracks the face area on the moving image. Here, a certain frame image is referred to as a reference frame image. The image specifying unit 10a first detects a face area from the reference frame image. The detection method is the same as described above. Then, the image specifying unit 10a specifies the face area in the frame image of the frame next to the reference frame by the tracking process. Here, two frame images that are temporally adjacent to each other are referred to as a previous frame image and a current frame image. The image specifying unit 10a can detect the face area of the current frame image by performing an image matching process in the search area of the current frame image using the vicinity area of the face position in the previous frame image as a search area. In the image matching process, for example, an image in a rectangular area centered on the face position in the previous frame image is used as a template image, and the similarity between the template image and the image in the search area of the current frame image is calculated. The face area is detected from the current frame image. A search area that satisfies a certain condition regarding the similarity is a face area. The image specifying unit 10a repeatedly performs such detection processing to track the face area detected in the reference frame image in the moving image after the reference frame image.

画像特定部10aは、メモリーカード100から読み出していない記録画像データがあるかを、メモリーカード100を参照して判断し(ステップS105)、読み出していない記録画像データがある場合(ステップS105;YES)、すべての記録画像を読み出すまで、ステップS102乃至ステップS104の処理を繰り返す。この繰り返される処理によって、記憶部20には記録画像情報が蓄積される。蓄積された記録画像情報は、記録画像情報データテーブルを構成する(図8参照)。図8の表の一行が記録画像情報の内容である。   The image specifying unit 10a determines whether there is recorded image data that has not been read from the memory card 100 (step S105), and if there is recorded image data that has not been read (step S105; YES). Until all the recorded images are read, the processing from step S102 to step S104 is repeated. By this repeated processing, the recording image information is accumulated in the storage unit 20. The stored recorded image information constitutes a recorded image information data table (see FIG. 8). One row of the table of FIG. 8 is the content of the recorded image information.

なお、上記では、画像特定部10aは、記録画像データを読み出すたびに記録画像データの分析を行っているが、複数の記録画像データを読み出してから一つずつ分析してもよい。   In the above description, the image specifying unit 10a analyzes the recorded image data every time the recorded image data is read out. However, it may be analyzed one by one after reading out a plurality of recorded image data.

このようにして、画像特定部10aは、予め撮影されて記録された画像データ(記録画像データ)を取得し、取得した画像データを分析し、分析した画像データの画像の被写体の状態を検出する(なお、この方法は、上記方法には限らない)。   In this way, the image specifying unit 10a acquires image data (recorded image data) that has been captured and recorded in advance, analyzes the acquired image data, and detects the state of the subject of the image of the analyzed image data. (Note that this method is not limited to the above method).

ステップS105の処理で画像特定部10aが読み出していない記録画像データがないと判断すると(ステップS105;NO)、画像特定部10aは、メモリーカード100から読み出した記録画像データの記録画像を任意の順序で所定間隔順次表示していく(ステップS106)。具体的には、画像特定部10aは、記憶部20に記録した記録画像データを記憶部20から所定の期間毎に順次読み出す。次に、画像特定部10aは、この順次読み出した記録画像データ毎に所定の処理(復号化、逆量子化、及び、表示部40の表示領域に合わせるための画像の拡大・縮小等)を施して再生用の再生データを生成する。画像特定部10aは、生成した再生データを表示部40に供給する。表示部40は、画像特定部10aが供給する再生データを受け取り、受け取った再生データ用いて、前記の記録画像データが表す記録画像を表示する。このような処理が、各記録画像データそれぞれについて任意の順序(例えば画像ナンバー順)で繰り返し行われる。このようにして、表示部40は、記録画像データの記録画像を所定の期間毎に切り替えて順次表示する。この表示処理は、新たな表示処理(後述のステップS114の処理)が開始されるまで繰り返し行われ、全ての画像を表示し終わっても再度表示処理が行われる。これは、後述のステップS114の処理でも同様である。   If it is determined in the process of step S105 that there is no recorded image data that has not been read by the image specifying unit 10a (step S105; NO), the image specifying unit 10a outputs the recorded images of the recorded image data read from the memory card 100 in any order. Are sequentially displayed at predetermined intervals (step S106). Specifically, the image specifying unit 10a sequentially reads recorded image data recorded in the storage unit 20 from the storage unit 20 at predetermined intervals. Next, the image specifying unit 10a performs predetermined processing (decoding, inverse quantization, enlargement / reduction of an image to fit the display area of the display unit 40) for each of the sequentially read recording image data. To generate reproduction data for reproduction. The image specifying unit 10a supplies the generated reproduction data to the display unit 40. The display unit 40 receives the reproduction data supplied from the image specifying unit 10a, and displays the recording image represented by the recording image data using the received reproduction data. Such processing is repeatedly performed in an arbitrary order (for example, image number order) for each of the recorded image data. In this way, the display unit 40 switches and displays the recording images of the recording image data for each predetermined period. This display process is repeated until a new display process (a process in step S114 described later) is started, and the display process is performed again even after all the images have been displayed. The same applies to the processing in step S114 described later.

画像特定部10aが画像の表示処理を開始すると、状態検出部10bは撮影部30に表示部40の前方の撮影を開始させる(ステップS107)。例えば、撮影部30は、状態検出部10bの制御のもと、表示部40の前方を撮影して上述の静止画像元データを順次生成し、生成した静止画像元データを状態検出部10bに順次供給する。そして、状態検出部10bは、撮影部30が出力した静止画像元データを順次受け取り、受け取った静止画像元データに必要な処理(ホワイトバランス調整、ガンマ補正、及び圧縮処理等)を順次施し、顔領域の検出が可能な画像データ(撮影画像データ)に順次変換する。また、状態検出部10bは、前記必要な処理の際に画像を左右反転させる処理を行うとよい。撮影部30が撮影する撮影画像は、表示部40を見る方向とは逆の方向から撮影された画像である。前記の左右反転させる処理によって、撮影画像の撮影対象と画像データの画像の被写体との位置を比較することが容易にできることになる。このようにして、状態検出部10bは、表示部40の前方を撮影した撮影画像のデータである撮影画像データを順次取得していく。なお、左右反転させる処理をしないときは、画像特定部10a及び状態検出部10bは、撮影画像と記録画像との位置関係が左右逆になることを前提として、画像特定・表示処理を行う。例えば、被写体の位置と撮影対象の位置とを比較する場合等には、どちらかの位置を左右逆として処理を行う。なお、撮影画像データは、そのデータから撮影画像を表現できるデータであればよく、前記のように撮影画像を反転させた画像の画像データ等であってもよい。この撮影画像データの画像(撮影画像)の連続が動画となる。例えば、状態検出部10bは、所定数の撮影画像データを状態検出部10bの記憶部(例えば、一次記憶装置12の記憶領域の一部)で記憶する。状態検出部10bが所定数の撮影画像データを記憶した後、状態検出部10bが新たに撮影画像データを取得すると、状態検出部10bは、新たな撮影画像データを前記の記憶部に最も古く記録される撮影画像データに上書きして記憶する。   When the image specifying unit 10a starts the image display process, the state detection unit 10b causes the photographing unit 30 to start photographing in front of the display unit 40 (step S107). For example, under the control of the state detection unit 10b, the photographing unit 30 photographs the front of the display unit 40 to sequentially generate the above-described still image original data, and sequentially generates the generated still image original data to the state detection unit 10b. Supply. Then, the state detection unit 10b sequentially receives the still image original data output from the photographing unit 30, and sequentially performs necessary processes (white balance adjustment, gamma correction, compression processing, etc.) on the received still image original data, The image data is sequentially converted into image data (captured image data) capable of detecting a region. In addition, the state detection unit 10b may perform a process of horizontally inverting the image during the necessary process. The captured image captured by the capturing unit 30 is an image captured from a direction opposite to the direction in which the display unit 40 is viewed. By the left-right reversing process, it is possible to easily compare the positions of the shooting target of the shot image and the subject of the image data image. In this manner, the state detection unit 10b sequentially acquires captured image data that is captured image data captured in front of the display unit 40. When the left / right reversing process is not performed, the image specifying unit 10a and the state detecting unit 10b perform the image specifying / display process on the assumption that the positional relationship between the captured image and the recorded image is reversed. For example, when comparing the position of the subject and the position of the object to be photographed, the process is performed with either position reversed left and right. The captured image data may be data that can represent a captured image from the data, and may be image data of an image obtained by inverting a captured image as described above. A series of images (captured images) of the captured image data is a moving image. For example, the state detection unit 10b stores a predetermined number of captured image data in the storage unit of the state detection unit 10b (for example, a part of the storage area of the primary storage device 12). After the state detection unit 10b stores a predetermined number of photographic image data, when the state detection unit 10b newly acquires photographic image data, the state detection unit 10b records the new photographic image data the oldest in the storage unit. The captured image data is overwritten and stored.

状態検出部10bは、ステップS108の処理を行う時点で取得している撮影画像データを分析し、撮影画像データが表す撮影画像内の撮影対象の状態を検出する(ステップS108)。このようにして、状態検出部10bは、撮影部30が撮影する動画を分析して、撮影対象の状態(ここでは、撮影対象の位置)を検出する。撮影対象の状態を検出する方法は、上記の被写体の状態の検出方法と同様の方法でできるので、下記では撮影対象の検出の主な点についてのみ説明し、他の詳細な説明は上記の被写体の状態の検出方法の説明に準じる。撮影対象の状態の検出には、上記の被写体の状態の検出方法と同様に撮影対象を含む撮影対象領域が用いられる。撮影対象領域の状態が撮影対象の状態と考えることができる。   The state detection unit 10b analyzes the captured image data acquired at the time of performing the process of step S108, and detects the state of the imaging target in the captured image represented by the captured image data (step S108). In this way, the state detection unit 10b analyzes the moving image shot by the shooting unit 30 and detects the state of the shooting target (here, the position of the shooting target). Since the method for detecting the state of the photographing target can be performed in the same manner as the above-described method for detecting the state of the subject, only the main points of detection of the photographing target will be described below, and other detailed explanations will be given for the above subject. According to the description of the state detection method. For the detection of the state of the shooting target, a shooting target region including the shooting target is used as in the above-described method of detecting the state of the subject. The state of the shooting target area can be considered as the shooting target state.

状態検出部10bは、例えば、上記のように、撮影画像データが表現する撮影画像を複数の分割領域に分割するとともに、撮影対象(ここでは、撮影対象領域)を検出し、検出した撮影対象がどの分割領域に位置するかを把握し、把握した撮影対象の位置を示す情報を生成することによって、撮影対象の位置という撮影対象の状態を検出する。   For example, as described above, the state detection unit 10b divides the photographed image represented by the photographed image data into a plurality of divided regions, detects a photographing target (here, the photographing target region), and detects the photographing target. By grasping which divided region is located and generating information indicating the grasped position of the photographing target, the state of the photographing target is detected as the position of the photographing target.

図9のように、各分割領域は、例えば、撮影画像データの撮影画像を横方向に四分割した四つの分割領域B1乃至B4である。各分割領域は、これに限らず、例えば、画像の縦方向及び横方向に2分割した、画像を四分割した各領域(左上、左下、右上、及び、右下の各領域)であってもよい。但し、撮影画像内の各分割領域B1乃至B4と、記録画像の各分割領域A1乃至A4と、は、それぞれ、数字が同じもの同士対応しているものとする。つまり、両者の形状は、同じであるか、相似の関係にある。また、両者は、画像における位置が同じである。例えば、分割領域B1の横の辺と画像全体の横の辺との比は、分割領域A1の横の辺と画像全体の横の辺との比と同一になる。   As shown in FIG. 9, each divided region is, for example, four divided regions B1 to B4 obtained by dividing the captured image of the captured image data into four in the horizontal direction. Each divided area is not limited to this, and may be, for example, each area (upper left, lower left, upper right, and lower right areas) obtained by dividing the image into four parts in the vertical and horizontal directions. Good. However, it is assumed that the divided areas B1 to B4 in the captured image and the divided areas A1 to A4 of the recorded image correspond to each other having the same number. That is, the shapes of both are the same or similar. Moreover, both have the same position in the image. For example, the ratio of the horizontal side of the divided area B1 to the horizontal side of the entire image is the same as the ratio of the horizontal side of the divided area A1 to the horizontal side of the entire image.

図9の撮影画像では、人物911が写っている。そして、撮影対象である、人物911の顔911aは分割領域B4内にある。状態検出部10bは、顔(撮影対象)911aを含む顔領域(撮影対象領域)921を検出する。そして、状態検出部10bは、検出した顔領域921が分割領域B4内に位置すると把握する。状態検出部10bは、検出した顔領域の位置から、検出した顔領域がどの分割領域に位置するかを把握する。これら顔領域の位置が顔の位置になるので、顔領域の位置によって被写体の位置がどの分割領域内に位置しているか把握されたことになる。なお、状態検出部10bは、撮影対象領域を複数検出した場合には、例えば、そのうちの一つを任意の方法(例えばランダム)で選択し、選択した撮影対象領域を検出した撮影対象領域とする。状態検出部10bは、撮影対象領域を複数検出した場合には、全ての撮影対象領域が位置する分割領域を把握してもよい。   In the photographed image of FIG. 9, a person 911 is shown. Then, the face 911a of the person 911, which is the subject of photographing, is in the divided area B4. The state detection unit 10b detects a face region (photographing target region) 921 including the face (photographing target) 911a. And the state detection part 10b grasps | ascertains that the detected face area 921 is located in division area B4. The state detection unit 10b grasps in which divided area the detected face area is located from the position of the detected face area. Since the positions of these face areas are the positions of the faces, it is understood in which divided area the position of the subject is located based on the position of the face area. When the state detection unit 10b detects a plurality of shooting target areas, for example, one of them is selected by an arbitrary method (for example, random), and the selected shooting target area is set as the detected shooting target area. . When detecting a plurality of shooting target areas, the state detection unit 10b may grasp a divided area where all the shooting target areas are located.

状態検出部10bは、撮影対象の状態(ここでは、各分割領域B1乃至B4内に顔領域があるか)を把握すると、把握した撮影対象の状態を示す情報である撮影対象状態情報を生成することで、撮影対象の状態を検出する。なお、このときに、状態検出部10bは、検出した撮影対象領域の画像データである撮影対象領域画像データを撮影画像データから取り出し、撮影対象状態情報に対応付け、対応付けた両者を保持する。状態検出部10bは、撮影対象領域を複数検出した場合には、例えば、そのうちの一つを任意の方法(例えばランダム)で選択し、選択した撮影対象領域の画像データを前記の撮影対象領域画像データとして撮影対象状態情報に対応付け、対応付けた両者を保持する。撮影対象状態情報と、撮影対象領域画像データとは、撮影画像情報を構成する。状態検出部10bは、撮影画像情報を生成する。   When the state detection unit 10b grasps the state of the photographing target (in this case, whether there is a face region in each of the divided regions B1 to B4), the state detection unit 10b generates photographing target state information that is information indicating the grasped state of the photographing target. Thus, the state of the object to be photographed is detected. At this time, the state detection unit 10b takes out the shooting target area image data, which is image data of the detected shooting target area, from the shooting image data, associates it with the shooting target state information, and holds both of them. When the state detection unit 10b detects a plurality of shooting target areas, for example, one of them is selected by an arbitrary method (for example, random), and the image data of the selected shooting target area is selected as the shooting target area image. The data is associated with the shooting target state information, and both of them are stored. The shooting target state information and the shooting target area image data constitute the shooting image information. The state detection unit 10b generates captured image information.

ここで、図9の撮影画像を分析して生成した撮影対象状態情報の内容を図10に示し、撮影画像情報の内容を図11に示す。図9の撮影画像では分割領域B4内に撮影対象(顔)が位置しているので、撮影対象状態情報は、図10のようにB1=×、B2=×、B3=×、B4=○という位置情報を含む。なお、撮影画像上に撮影対象が存在しない場合、画像特定部10aは、撮影対象が存在しないという被写体の状態を検出することになる。この場合、撮影対象状態情報は、B1=×、B2=×、B3=×、B4=×という位置情報を含む。また、図11のように、撮影対象状態情報と撮影対象領域画像データとによって、撮影画像情報が構成される。   Here, the contents of the photographing target state information generated by analyzing the photographed image of FIG. 9 are shown in FIG. 10, and the contents of the photographed image information are shown in FIG. In the photographed image of FIG. 9, since the photographing object (face) is located in the divided area B4, the photographing object state information is B1 = x, B2 = x, B3 = x, B4 = O as shown in FIG. Contains location information. When there is no shooting target on the shot image, the image specifying unit 10a detects the state of the subject that the shooting target does not exist. In this case, the photographing target state information includes position information such as B1 = x, B2 = x, B3 = x, and B4 = x. Further, as shown in FIG. 11, photographic image information is configured by the photographic target state information and the photographic target region image data.

なお、状態検出部10bは、順次取得する撮影画像データを用いて上記と同様の方法により、撮影画像の撮影対象を追跡してもよい。この場合、状態検出部10bは、画像特定部10aが行う被写体の追跡(ステップS104の説明参照)と同様、撮影対象を含む撮影対象領域を追跡することによって、撮影対象を追跡していく。状態検出部10bは、ステップS108の処理を行うときに、追跡している撮影対象の位置情報をもとに、撮影対象の位置を把握し、把握した撮影対象の位置から前記の撮影対象状態情報を生成し、撮影対象の状態を検出する。このような処理によって処理負担を軽減できる。なお、追跡する撮影対象が複数ある場合には、その中の一つを任意の方法(例えばランダム)によって選択し、選択した撮影対象を追跡するか、それぞれの撮影対象を追跡する。また、追跡する撮影対象の撮影対象領域(複数の場合は、任意の方法(例えばランダム)で選択した一の撮影対象領域)を任意のタイミングで取り出し、前記の撮影対象領域画像データとする。   Note that the state detection unit 10b may track the shooting target of the shot image using the same method as described above using sequentially acquired shot image data. In this case, the state detection unit 10b tracks the shooting target by tracking the shooting target region including the shooting target, similarly to the tracking of the subject performed by the image specifying unit 10a (see the description of step S104). When performing the process of step S108, the state detection unit 10b grasps the position of the photographing target based on the position information of the photographing target being tracked, and the photographing target state information from the grasped position of the photographing target. And the state of the object to be imaged is detected. Such processing can reduce the processing load. When there are a plurality of shooting targets to be tracked, one of them is selected by an arbitrary method (for example, random), and the selected shooting target is tracked or each shooting target is tracked. In addition, an imaging target area to be tracked (a plurality of imaging target areas selected by an arbitrary method (for example, random)) is taken out at an arbitrary timing and used as the imaging target area image data.

なお、状態検出部10bは、繰り返し行われるステップS108において、撮影画像情報を状態検出部10bの記憶部(一次記憶装置12の記憶領域)に記録することで、所定数(2以上)の撮影画像情報を保持する。   In step S108, which is repeatedly performed, the state detection unit 10b records the photographed image information in the storage unit (storage area of the primary storage device 12) of the state detection unit 10b, so that a predetermined number (two or more) of photographed images is obtained. Keep information.

状態検出部10bは、撮影対象の状態を検出すると、撮影対象の状態が変化したかを判別する(ステップS109)。具体的には、例えば、状態検出部10bは、今回生成した撮影対象状態情報と、前回生成した撮影対象状態情報と、を比較して、撮影対象の状態が変化したかを判別する。例えば、状態検出部10bは、撮影画像情報に含まれる両者を比較し、撮影対象が位置する分割領域(撮影対象が複数の場合は撮影対象が位置する1以上の分割領域)が変化している場合に、撮影対象の状態が変化したと判断する。例えば、状態検出部10bは、両者を比較し、撮影対象が位置する分割領域(撮影対象が複数の場合は撮影対象が位置する1以上の分割領域)が変化していない場合に、撮影対象の状態が変化していないと判断する。なお、比較の対象となる前回検出した撮影対象状態情報が存在しないステップS109(例えば、最初に行われるステップS109)の処理では、状態検出部10bは撮影対象の状態が変化したと判別する。   When detecting the state of the photographing target, the state detection unit 10b determines whether the state of the photographing target has changed (step S109). Specifically, for example, the state detection unit 10b compares the currently generated shooting target state information with the previously generated shooting target state information to determine whether the state of the shooting target has changed. For example, the state detection unit 10b compares the two included in the captured image information, and the divided area where the shooting target is located (one or more divided areas where the shooting target is located when there are a plurality of shooting targets) is changed. In this case, it is determined that the state of the shooting target has changed. For example, the state detection unit 10b compares the two, and if the divided region where the shooting target is located (one or more divided regions where the shooting target is located when there are a plurality of shooting targets) has not changed, Judge that the state has not changed. In the process of step S109 (for example, step S109 performed first) in which there is no previously detected shooting target state information to be compared, the state detection unit 10b determines that the state of the shooting target has changed.

状態検出部10bは、撮影対象の状態が変化していないと判断した場合(ステップS109;NO)、ステップS108の処理を再び行う。このようにして、状態検出部10bは、撮影対象の状態が変化するまで、撮影対象の状態を監視する。   If the state detection unit 10b determines that the state of the photographing target has not changed (step S109; NO), the state detection unit 10b performs the process of step S108 again. In this way, the state detection unit 10b monitors the state of the shooting target until the state of the shooting target changes.

状態検出部10bが撮影対象の状態が変化したと判断した場合(ステップS109;YES)、画像特定部10aは、最新の撮影対象の状態に基づいて記録画像データを取得する(ステップS110)。具体的には、例えば、画像特定部10aは、状態検出部10bが保持する最新の撮影対象状態情報を用いてこの最新の撮影対象状態情報に対応する記録画像データを記憶部20の記録画像情報データテーブルから取得する。さらに具体的には、例えば、画像特定部10aは、記録画像情報データテーブルの中から、状態検出部10bが保持する最新の撮影画像情報に含まれる撮影対象状態情報と或る関係を満たす被写体状態情報を有する記録画像情報を記録画像情報データテーブルの中から特定する。そして、画像特定部10aは、この特定した記録画像情報に含まれる記録画像データを読み出して取得する。例えば、画像特定部10aは、撮影対象状態情報が示す、撮影対象が位置する分割領域と、記録画像情報に含まれる被写体状態情報が示す、被写体が位置する分割領域とが、互いに対応する領域である場合(例えばA4とB4とは対応する領域である)に前記の或る関係を満たすとする。なお、対応とは、一部対応であってもよいし、完全対応であってもよい。一部対応とは、例えば、被写体が位置する1以上の分割領域のうちの少なくとも1つと、撮影対象が位置する1以上の分割領域の少なくとも1つとが、互いに対応する場合をいう。完全対応とは、被写体が位置する1以上の分割領域と、撮影対象が位置する1以上の分割領域と、が完全に対応する場合をいう。例えば、図10の撮影対象状態情報に基づいて図8の記録画像情報データテーブル内の対応する記録画像情報を検索する場合、完全対応の場合は、画像ナンバーが4の記録画像情報を特定することになり、一部対応の場合は、画像ナンバーが2と4とnの記録画像情報を特定することになる。なお、比較する分割領域の画像上における相対位置が一緒で、比較する分割領域の形状が同じ又は相似であれば、両分割領域は対応するといえる。そして、画像特定部10aは、特定した記録画像情報に含まれる記録画像データを記憶部20から読み出して取得する。この読み出した記録画像データが、前記の最新の撮影対象情報に対応する記録画像データとなる。なお、読み出された全ての記録画像データは、例えば、画像特定部10a内の記憶部(一次記憶装置12の記憶領域等)等に記録され、これによって、画像特定部10aは記録画像データを保持する。   When the state detection unit 10b determines that the state of the shooting target has changed (step S109; YES), the image specifying unit 10a acquires recorded image data based on the latest state of the shooting target (step S110). Specifically, for example, the image specifying unit 10a uses the latest shooting target state information held by the state detection unit 10b to record the recorded image data corresponding to the latest shooting target state information in the storage unit 20. Get from data table. More specifically, for example, the image specifying unit 10a includes a subject state that satisfies a certain relationship with the shooting target state information included in the latest captured image information held by the state detection unit 10b from the recorded image information data table. The recorded image information having information is specified from the recorded image information data table. Then, the image specifying unit 10a reads out and acquires the recorded image data included in the specified recorded image information. For example, the image specifying unit 10a is an area in which a divided area where the shooting target is indicated, indicated by the shooting target state information, and a divided area where the subject is indicated, which is indicated by the subject state information included in the recorded image information, are mutually corresponding areas. In some cases (for example, A4 and B4 are corresponding regions), it is assumed that the certain relationship is satisfied. The correspondence may be a partial correspondence or a complete correspondence. “Partial correspondence” means, for example, a case where at least one of one or more divided regions where a subject is located and at least one of one or more divided regions where a photographing target is located correspond to each other. The complete correspondence refers to a case where one or more divided regions where the subject is located and one or more divided regions where the photographing target is located completely correspond. For example, when searching for the corresponding recorded image information in the recorded image information data table of FIG. 8 based on the shooting target state information of FIG. 10, in the case of complete correspondence, the recorded image information with an image number of 4 is specified. In the case of partial correspondence, the recorded image information with image numbers 2, 4, and n is specified. Note that if the relative positions of the divided areas to be compared on the image are the same and the shapes of the divided areas to be compared are the same or similar, it can be said that both divided areas correspond. Then, the image specifying unit 10a reads out and acquires the recording image data included in the specified recording image information from the storage unit 20. The read recorded image data becomes recorded image data corresponding to the latest shooting target information. Note that all of the read recorded image data is recorded in, for example, a storage unit (such as a storage area of the primary storage device 12) in the image specifying unit 10a, whereby the image specifying unit 10a stores the recorded image data. Hold.

画像特定部10aは、記録画像データを1以上取得できたか判断する(ステップS111)。取得出来ない場合(ステップS111;NO)、画像特定部10aは、撮影対象の状態が変化したが、変化した撮影対象の状態に対応する記録画像の記録画像データが無いので、その旨を表示部40に例えば記録画像の中の字幕等で表示させ(ステップS114)、状態検出部10bにステップS108の処理を再び行わせる。これによって、撮影対象の状態に対応する記録画像がなくても、記録画像の表示が途切れないことになり、また、今回の処理で特定される記録画像がないことをユーザに知らせることができる。   The image specifying unit 10a determines whether one or more recorded image data has been acquired (step S111). If acquisition is not possible (step S111; NO), the image specifying unit 10a changes the state of the shooting target, but there is no recorded image data of the recorded image corresponding to the changed state of the shooting target, so that the display unit For example, a subtitle or the like in the recorded image is displayed in 40 (step S114), and the state detection unit 10b is caused to perform the process of step S108 again. As a result, even if there is no recorded image corresponding to the state to be photographed, the display of the recorded image is not interrupted, and the user can be informed that there is no recorded image specified by the current process.

画像特定部10aは、記録画像データを1以上取得出来た場合(ステップS111;YES)、記録画像の表示順序を決定する(ステップS112)。例えば、画像特定部10aは、各記録画像を分析して被写体領域を検出する(方法は上記と同様)。そして、画像特定部10aは、検出した被写体領域の画像データ(被写体領域画像データ)と、状態検出部10bが保持する撮影対象状態情報に含まれる撮影対象領域画像データと、を用いて被写体領域と撮影対象領域との類似度(すなわち被写体と撮影対象の類似度)を検出し、検出した類似度を用いて記録画像の表示順序を決定する。決定した記録画像の表示順序は、例えば、撮影対象と類似度の大きい被写体を有する記録画像から表示していく順序である。なお、類似度が同じ記録画像の表示順序は、ランダムに決めるか、画像ナンバー順等で決める。また、被写体領域が複数検出された場合、画像特定部10aは類似度の検出に用いる被写体領域をランダム等の任意の方法によって決定する。また、状態検出部10bが撮影対象領域画像データを取り出すときに、取り出した位置の情報(例えば分割領域を特定する情報)をこの撮影対象領域画像データに含ませておき、被写体領域が複数検出された場合、画像特定部10aは前記の位置の情報を前記の撮影対象領域画像データから取り出して、この位置の情報が示す位置と所定範囲内(対応する分割領域内)の位置にある被写体領域を類似度の検出に用いる被写体領域としてもよい。類似度の検出に用いる被写体領域が複数の場合、画像特定部10aは、例えば、各被写体領域と撮影対象領域との各類似度を導出し、導出した類似度の中で一番類似度の高い類似度を前記の検出した類似度として用いて前記の記録画像の表示順序を決定する。   When one or more pieces of recorded image data can be acquired (step S111; YES), the image specifying unit 10a determines the display order of the recorded images (step S112). For example, the image specifying unit 10a analyzes each recorded image to detect a subject area (the method is the same as described above). Then, the image specifying unit 10a uses the detected subject region image data (subject region image data) and the shooting target region image data included in the shooting target state information held by the state detection unit 10b to determine the subject region. The degree of similarity with the shooting target area (that is, the degree of similarity between the subject and the shooting target) is detected, and the display order of the recorded images is determined using the detected similarity. The determined display order of the recorded images is, for example, the order in which the recorded images are displayed starting from a recorded image having a subject with a high degree of similarity to the subject to be photographed. Note that the display order of recorded images having the same degree of similarity is determined randomly or in the order of image numbers. Further, when a plurality of subject areas are detected, the image specifying unit 10a determines a subject area to be used for detecting the similarity by an arbitrary method such as random. Further, when the state detection unit 10b extracts the shooting target area image data, information on the extracted position (for example, information for specifying the divided area) is included in the shooting target area image data, and a plurality of subject areas are detected. In this case, the image specifying unit 10a extracts the position information from the shooting target area image data, and selects a subject area at a position within the predetermined range (within a corresponding divided area) from the position indicated by the position information. It may be a subject area used for detection of similarity. When there are a plurality of subject areas used for detecting the similarity, for example, the image specifying unit 10a derives each similarity between each subject area and the imaging target area, and has the highest similarity among the derived similarities. The display order of the recorded images is determined using the similarity as the detected similarity.

前記の類似度の検出には、例えば、SAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)、又はZNCC(Zero-mean Normalized Cross-Correlation)を用いる。SAD及びSSDの場合、算出値が小さいほど類似度が高くなる。ZNCCの場合、算出値が大きいほど類似度が高くなる。   For the detection of the similarity, for example, SAD (Sum of Absolute Difference), SSD (Sum of Squared Difference), or ZNCC (Zero-mean Normalized Cross-Correlation) is used. In the case of SAD and SSD, the smaller the calculated value, the higher the similarity. In the case of ZNCC, the greater the calculated value, the higher the similarity.

画像特定部10aは、ステップS110の処理で取得した記録画像データ(上記の編集をした場合には、編集した後の記録画像データが望ましい。)の各記録画像を、ステップS112の処理で決定した表示順序に従って表示部40へ表示させることを開始する(ステップS113)。なお、記録画像の表示処理の詳細な説明は、ステップS106の説明に準じる。画像特定部10aは、記録画像の表示処理を開始すると、状態検出部10bに再びステップS108の処理を行わせる。   The image specifying unit 10a determines each recorded image of the recorded image data acquired in the process of step S110 (if edited, the recorded image data after editing is desirable) by the process of step S112. The display on the display unit 40 is started in accordance with the display order (step S113). The detailed description of the recorded image display process is the same as that in step S106. When starting the display process of the recorded image, the image specifying unit 10a causes the state detection unit 10b to perform the process of step S108 again.

状態検出部10bは表示部40の表示面の前方を撮影部30に撮影させる際に動画を撮影させているが、状態検出部10bは、ステップS108において、撮影部30に静止画を撮影させ、撮影させた静止画に基づいて上記の処理を行っても良い。この場合、ステップS107の処理は不要になり、変わりにステップS108において、状態検出部10bは、撮影部30に撮影を行わせる。   The state detection unit 10b captures a moving image when the photographing unit 30 photographs the front of the display surface of the display unit 40. However, in step S108, the state detection unit 10b causes the photographing unit 30 to capture a still image, The above processing may be performed based on the photographed still image. In this case, the processing in step S107 is not necessary, and instead in step S108, the state detection unit 10b causes the photographing unit 30 to perform photographing.

また、上記では、画像特定装置1は、分割領域を用いて、撮影対象と被写体との位置を検出することによって、表示部40に表示する記録画像の記録画像データを特定しているが、この特定方法は、上記の具体例に限らず、他の方法によって実現してもよい。画像特定装置1は、例えば、撮影対象の画像における座標と、被写体の画像における座標と、を比較することによって、表示部40に表示する記録画像の記録画像データを特定してもよい。この場合、画像特定部10a及び状態検出部10bは、ステップS104及びステップS108において、撮影対象及び被写体の座標(例えば、撮影対象領域の中心(又は、左上及び右下)及び被写体領域の中心(又は、左上及び右下)の座標)を把握し、把握した座標情報を、撮影画像情報に撮影対象状態情報として含ませるとともに、記録画像情報に記録画像状態情報として含ませる。状態検出部10bは、ステップS110において前記の座標情報を用いて記録画像情報を取得する。例えば、状態検出部10bは、撮影対象の座標及び被写体の座標が所定の範囲内に入っている記録画像情報を取得する。なお、このときの座標は、画像全体における相対位置を示す座標であってもよいし、画像の左上、右上、左下、又は右下のいずれかの端点を原点とした座標であってもよい。端点を原点とした座標を用いる場合、画像特定部10a又は状態検出部10bは、ステップS104の処理又はステップS108の処理において、他方の画像と座標の比較が出来るように、画像の解像度等を変換する処理を行った新たな記録画像データ又は撮影画像データを生成し、両者の画像の縦横の辺の長さ(画素数)を合わせるとよい。   In the above description, the image identification device 1 identifies the recorded image data of the recorded image to be displayed on the display unit 40 by detecting the positions of the shooting target and the subject using the divided areas. The identification method is not limited to the above specific example, and may be realized by other methods. For example, the image specifying device 1 may specify the recording image data of the recording image displayed on the display unit 40 by comparing the coordinates in the image to be photographed with the coordinates in the image of the subject. In this case, in step S104 and step S108, the image specifying unit 10a and the state detection unit 10b capture the coordinates of the shooting target and the subject (for example, the center of the shooting target region (or upper left and lower right) and the center of the subject region (or The upper left and lower right coordinates) are grasped, and the grasped coordinate information is included in the photographed image information as photographing object state information, and is included in the recorded image information as recorded image state information. In step S110, the state detection unit 10b acquires recorded image information using the coordinate information. For example, the state detection unit 10b acquires recorded image information in which the coordinates of the photographing target and the coordinates of the subject are within a predetermined range. Note that the coordinates at this time may be coordinates indicating a relative position in the entire image, or may be coordinates having an origin at any of the upper left, upper right, lower left, or lower right end points of the image. When using the coordinates with the end point as the origin, the image specifying unit 10a or the state detecting unit 10b converts the resolution of the image so that the other image can be compared with the coordinate in the process of step S104 or the process of step S108. It is preferable to generate new recorded image data or photographed image data that has been processed, and to match the lengths (number of pixels) of the vertical and horizontal sides of both images.

上述のように、状態検出部10bは、表示部40の表示面の前方を撮影した撮影画像のデータである撮影画像データを取得し、取得した撮影画像データを分析して撮影画像における撮影対象の状態(ここでは、撮影対象の位置)を検出する(ステップS108参照、なお、この検出方法は上記具体例以外の他の方法によって実現しても良い)。また、画像特定部10aは、状態検出部10bが検出した撮影対象の状態に基づいて表示部40に表示する記録画像の記録画像データを特定する(ステップS110参照、なお、この特定方法は上記具体例以外の他の方法によって実現しても良い)。なお、記録画像データは、ここでは、予め撮影され、記憶媒体等に記録されている画像データである。画像特定部10aは、ここでは、複数の記録画像データの中から表示部40に表示する記録画像の記録画像データを特定する。撮影対象の状態に基づいて表示部40に表示する記録画像の記録画像データを特定するので、新たな基準によって、ユーザと同一人物の顔を含んでいない画像も特定できる。ここで、撮影対象の状態とは、例えば、同一人物等を判定するための撮影対象の特徴量等ではなく、画像内の撮影対象の状況等を表す情報である。   As described above, the state detection unit 10b acquires captured image data that is data of a captured image captured in front of the display surface of the display unit 40, analyzes the acquired captured image data, and analyzes a captured object in the captured image. The state (here, the position of the object to be photographed) is detected (see step S108, this detection method may be realized by a method other than the above specific example). Further, the image specifying unit 10a specifies the recording image data of the recording image to be displayed on the display unit 40 based on the state of the photographing target detected by the state detecting unit 10b (see step S110. It may be realized by other methods than the example). Here, the recorded image data is image data that is previously captured and recorded in a storage medium or the like. Here, the image specifying unit 10a specifies the recording image data of the recording image to be displayed on the display unit 40 from the plurality of recording image data. Since the recorded image data of the recorded image to be displayed on the display unit 40 is specified based on the state of the photographing target, an image that does not include the face of the same person as the user can be specified based on a new standard. Here, the state of the shooting target is, for example, information indicating the status of the shooting target in the image, not the feature amount of the shooting target for determining the same person or the like.

そして、本実施形態では、画像特定部10aは、特に、撮影対象の状態と一定の関係を満たす状態にある被写体が写った記録画像の記録画像データを、表示部40に表示する画像の画像データとして特定しているので、新たな基準でユーザと同一人物の顔を含んでいない画像も特定できる。なお、この画像データの特定方法は上記具体例以外の他の方法によって実現しても良い。   In the present embodiment, the image specifying unit 10a particularly records image data of an image displayed on the display unit 40, which is recorded image data of a subject that is in a state that satisfies a certain relationship with the state of the subject to be photographed. Therefore, an image that does not include the face of the same person as the user can be specified based on a new standard. Note that this method of specifying image data may be realized by a method other than the above specific example.

上述のように本実施形態では、撮影対象の状態及び被写体の状態を、それぞれ、撮影対象の位置及び被写体の位置としている。また、画像特定装置1は、撮影画像における撮影対象の位置と第1の所定の関係を満たす位置に被写体が写った記録画像の記録画像データを複数の記録画像の中から特定する(ステップS110等を参照、なお、この特定方法は上記具体例以外の他の方法によって実現しても良い)。ここで、第1の所定の関係は、ここでは、撮影対象と被写体とが、画像上の同じ分割領域、又は、撮影対象の座標から前記所定の範囲内にある領域内に位置する関係である。ここで、画像特定装置1は、被写体と撮影対象とが同じ分割領域等のある領域に位置するような記録画像を表示部40に順次表示していくことになる(ステップS113等を参照)。これにより、本実施形態に係る画像特定装置1は、図12に示すように、画像の鑑賞者(撮影対象1201を有する人物)の面前又はその近傍に被写体1211が写る記録画像ばかりを表示するので、この画像特定装置1は撮影対象の人物に新たな印象を与えることができる。   As described above, in the present embodiment, the state of the photographing target and the state of the subject are the position of the photographing target and the position of the subject, respectively. Further, the image specifying device 1 specifies the recorded image data of the recorded image in which the subject is captured at a position satisfying the first predetermined relationship with the position of the shooting target in the shot image (step S110 and the like). Note that this specifying method may be realized by a method other than the above specific example). Here, the first predetermined relationship is a relationship in which the photographing target and the subject are located in the same divided region on the image or in a region within the predetermined range from the coordinates of the photographing target. . Here, the image specifying apparatus 1 sequentially displays recorded images on the display unit 40 such that the subject and the photographing target are located in a certain area such as the same divided area (see step S113 and the like). Thereby, as shown in FIG. 12, the image specifying apparatus 1 according to the present embodiment displays only the recorded image in which the subject 1211 is captured in front of or in the vicinity of the image viewer (person having the shooting target 1201). The image specifying device 1 can give a new impression to the person to be photographed.

上述のように本実施形態では、画像特定装置1は、記録画像データを複数特定し、特定した記録画像データの記録画像の表示順序を、撮影対象の特徴(ここでは顔の特徴)と特定した記録画像データの記録画像の被写体の特徴(ここでは顔の特徴)との類似度(ここでは、類似度の高さ)に基づいて特定する(ステップS112等を参照、なお、この特定方法は上記具体例以外の他の方法によって実現しても良い)。これによって、画像特定装置1は、撮影対象と被写体との類似度が高い順に記録画像を表示部に順次表示する。このように、本実施形態に係る画像特定装置1は、図13のように、画像の鑑賞者(撮影対象1301を有する人物)の面前又はその近傍に自分と類似する被写体1311が写る記録画像を優先して表示するので、この画像特定装置1は撮影対象の人物に新たな印象を与えることができる。ここでは、図13では、被写体1311の方が被写体1312よりも撮影対象との類似度が高くなっている。画像特定装置1は、例えば、図13のように、被写体1311が写る記録画像を表示し、その後に被写体1312が写る記録画像を表示する。   As described above, in the present embodiment, the image specifying device 1 specifies a plurality of recorded image data, and specifies the display order of the recorded images of the specified recorded image data as a feature to be photographed (here, a facial feature). Identification based on the similarity (here, high degree of similarity) with the characteristics of the subject (here, the facial characteristics) of the recorded image of the recorded image data (see step S112, etc. It may be realized by a method other than the specific example). As a result, the image specifying device 1 sequentially displays the recorded images on the display unit in descending order of the similarity between the photographing target and the subject. As described above, the image specifying apparatus 1 according to the present embodiment, as shown in FIG. 13, records a recorded image in which a subject 1311 similar to the subject is captured in front of or in the vicinity of an image viewer (a person having a shooting target 1301). Since the display is prioritized, the image specifying device 1 can give a new impression to the person to be photographed. Here, in FIG. 13, the subject 1311 has a higher degree of similarity to the subject than the subject 1312. For example, as illustrated in FIG. 13, the image specifying device 1 displays a recorded image in which the subject 1311 is captured, and then displays a recorded image in which the subject 1312 is captured.

上述のように本実施形態では、画像特定装置1は、状態検出部10bが新たな撮影対象の状態(ここでは、顔の位置)を検出すると、検出した新たな撮影対象の状態に基づいて、表示部40に表示する記録画像の記録画像データを特定する(ステップS109;YES、ステップS110参照、なお、この特定方法は上記具体例以外の他の方法によって実現しても良い)。これによって、画像特定装置1は、被写体が写る記録画像を表示していても、撮影対象が移動すると、次に表示する画像として、撮影対象の面前又はその近傍に位置する被写体が写る記録画像を表示する。画像特定装置1は、図14のように、画像の鑑賞者(撮影対象1401を有する人物)の面前又はその近傍に被写体1411が位置する記録画像を表示し、この鑑賞者(つまり撮影対象1401)が移動すると、移動した後の鑑賞者の面前又はその近傍に被写体1412が写る記録画像を表示するので、この画像特定装置1は撮影対象の人物に新たな印象を与えることができる。   As described above, in the present embodiment, when the state detection unit 10b detects the state of the new photographing target (here, the position of the face), the image specifying device 1 is based on the detected state of the new photographing target. The recording image data of the recording image to be displayed on the display unit 40 is specified (step S109; YES, see step S110, this specifying method may be realized by other methods other than the above specific example). As a result, even if the image specifying apparatus 1 displays a recorded image showing the subject, when the subject is moved, a recorded image showing the subject located in front of or near the subject is displayed as the next image to be displayed. indicate. As shown in FIG. 14, the image specifying device 1 displays a recorded image in which the subject 1411 is positioned in front of or in the vicinity of an image viewer (a person having the shooting target 1401), and this viewer (that is, the shooting target 1401). Is moved, a recorded image in which the subject 1412 is captured is displayed in front of or in the vicinity of the viewer after the movement, so that the image specifying device 1 can give a new impression to the person to be photographed.

なお、画像特定部10aは、撮影対象状態情報が、被写体が存在しないという被写体の状態を示している場合には、記憶部20から全ての記録画像データを読み出して取得し、ステップS112の処理を行わずステップS113の処理において、ステップS106と同様の処理を行っても良い。これによって、撮影対象が表示部40の表示面の前方に存在しない場合、画像特定装置1は、初期の表示方法で記録画像を表示できる。   Note that if the shooting target state information indicates the state of the subject that the subject does not exist, the image specifying unit 10a reads and acquires all the recorded image data from the storage unit 20, and performs the process of step S112. In the process of step S113, the same process as in step S106 may be performed. As a result, when the imaging target does not exist in front of the display surface of the display unit 40, the image specifying device 1 can display the recorded image by the initial display method.

なお、前記の第1の所定の関係を、例えば、撮影対象と被写体とが、画像上の異なる分割領域、又は、撮影対象の座標から前記所定の範囲外にある領域内に位置する関係としてもよい。この場合、画像特定部10aは、例えば、ステップS110において、状態検出部10bが検出した撮影対象状態情報が示す、撮影対象が位置する分割領域に対応する分割領域以外の分割領域に被写体が位置する(このとき、撮影対象が位置する分割領域に対応する分割領域に別の被写体が位置してもよい。)記録画像の記録画像データを取得する。これによって、画像特定装置1は、画像の鑑賞者(撮影対象を有する人物)の面前又はその近傍ではない領域内に被写体が写る記録画像ばかりを表示するので、この画像特定装置1は撮影対象の人物に新たな印象を与えることができる。さらに、例えば位置を検出された鑑賞者の後方に他の鑑賞者が存在しても、後方の他の鑑賞者が被写体を鑑賞することが出来る(例えば図15参照)。図15のように、画像特定装置1は、撮影対象1501を有する人物の面前又はその近傍ではない領域内に被写体1511が写る記録画像を表示する。   The first predetermined relationship may be, for example, a relationship in which the shooting target and the subject are located in different divided regions on the image or in a region outside the predetermined range from the coordinates of the shooting target. Good. In this case, for example, in step S110, the image specifying unit 10a has the subject positioned in a divided region other than the divided region corresponding to the divided region where the shooting target is indicated, which is indicated by the shooting target state information detected by the state detection unit 10b. (At this time, another subject may be located in the divided area corresponding to the divided area where the shooting target is located.) Recorded image data of the recorded image is acquired. As a result, the image specifying device 1 displays only the recorded image in which the subject is captured in a region that is not in front of or in the vicinity of the image viewer (person who has the shooting target). A new impression can be given to a person. Further, for example, even if there are other viewers behind the viewer whose position has been detected, the other viewers behind the viewer can appreciate the subject (see, for example, FIG. 15). As illustrated in FIG. 15, the image specifying device 1 displays a recorded image in which the subject 1511 is captured in an area that is not in front of or near the person having the shooting target 1501.

なお、撮影対象の状態及び被写体の状態は、例えば、それぞれ、撮影画像における撮影対象の数及び記録画像における被写体の数であってもよい。この場合、画像特定部10aは、例えば、ステップS110において、被写体領域を検出することによって被写体の数を把握する(被写体領域の数は、被写体の数に等しい)。画像特定部10aは、把握した被写体の数を被写体状態情報として、記録画像情報(図16参照)を生成する。また、状態検出部10bは、ステップS108において、撮影対象領域を検出することによって撮影対象領域の数を把握する(撮影対象領域の数は、撮影対象の数に等しい)。状態検出部10bは、把握した撮影対象の数を撮影対象状態情報として、撮影画像情報(図17参照)を生成する。そして、画像特定部10aは、ステップS110において、撮影画像情報に含まれる撮影対象の数と第2の所定の関係にある被写体の数を含む被写体状態情報の記録画像データを取得する。このようにして、画像特定部10aは、撮影画像における撮影対象の数と第2の所定の関係を満たす数の被写体が写った記録画像の記録画像データを、表示部40に表示する記録画像の記録画像データとして特定する。ここで、第2の所定の関係は、例えば両者の数が同数となる場合である。図18のように、画像特定装置1は、二つの撮影対象1601乃至1602と同数の被写体1611乃至1612が写る記録画像を表示している。この画像特定装置1は撮影対象の人物に新たな印象を与えることができる。   The state of the shooting target and the state of the subject may be, for example, the number of shooting targets in the shot image and the number of subjects in the recorded image, respectively. In this case, for example, in step S110, the image specifying unit 10a grasps the number of subjects by detecting the subject region (the number of subject regions is equal to the number of subjects). The image specifying unit 10a generates recorded image information (see FIG. 16) using the grasped number of subjects as subject state information. In step S108, the state detection unit 10b detects the number of shooting target areas to determine the number of shooting target areas (the number of shooting target areas is equal to the number of shooting targets). The state detection unit 10b generates photographed image information (see FIG. 17) using the grasped number of photographing objects as photographing object state information. In step S110, the image specifying unit 10a acquires recorded image data of subject state information including the number of subjects having a second predetermined relationship with the number of subjects to be photographed included in the photographed image information. In this way, the image specifying unit 10a displays the recorded image data of the recorded image that displays on the display unit 40 the recorded image data of the number of subjects that satisfy the second predetermined relationship with the number of captured objects in the captured image. It is specified as recorded image data. Here, the second predetermined relationship is, for example, a case where the number of both is the same. As shown in FIG. 18, the image specifying device 1 displays a recorded image in which the same number of subjects 1611 to 1612 as the two shooting targets 1601 to 1602 are captured. The image specifying device 1 can give a new impression to a person to be photographed.

なお、撮影対象の状態は、撮影画像における撮影対象の視線であってもよい。状態検出部10bは、ステップS108において、撮影対象領域を検出し、検出した撮影対象領域の画像データを分析することによって撮影対象の視線を把握する。状態検出部10bは、把握した撮影対象の視線の先と判断できる分割領域(上記図9の例では分割領域B1乃至B4のいずれか)を撮影対象状態情報として、撮影画像情報(データ内容は図11のデータ内容と略同様になる)を生成する。このようにすれば、画像特定部10aは、ステップS110の処理で、撮影画像における撮影対象の視線と第3の所定の関係を満たす状態の被写体が写った画像の画像データを、表示部40に表示する記録画像の記録画像データとして特定する。ここで、第3の所定の関係を満たす状態とは、例えば撮影対象の視線の先と判断できる分割領域と対応する分割領域に被写体が位置する記録画像の状態をいう。図19のように、画像特定装置1は、撮影対象1901の視線(破線矢印参照)の先と判断出来る分割領域に被写体1911が写る記録画像を表示している。この画像特定装置1は撮影対象の人物に新たな印象を与えることができる。状態検出部10bは、顔領域内を分析し、顔領域内の顔の視線を把握する。視線は、顔の目の領域を顔領域の中から検出し(顔領域の検出と同様に着目画像と目のテンプレート画像とを用いたパターンマッチング等によって検出する)、検出した目の白色の領域(白目の部分)が検出した目全体のどこに位置しているかで把握できる。そして、状態検出部10bは、この検出した視線をもとに、視線の範囲と、この視線の先にあると思われる分割領域と、を特定したデータテーブルを参照して、視線がどの分割領域内に向いているか、つまり、視線の先と判断出来る分割領域を把握する。例えば、図9の撮影対象911aの目が、図9の横方向における内側を向き、かつ、目全体における白目の分布が所定の範囲の分布である場合、この視線の先にある分割領域はB1であるとする。なお、視線の把握についてはその他の公知の方法も採用できる。なお、分割領域を他の領域の情報(例えば座標を用いた所定範囲の領域)に置き換えても良い。   The state of the photographing target may be the line of sight of the photographing target in the photographed image. In step S <b> 108, the state detection unit 10 b detects a shooting target area, and grasps the line of sight of the shooting target by analyzing image data of the detected shooting target area. The state detection unit 10b uses the divided area (any of the divided areas B1 to B4 in the example of FIG. 9) that can be determined as the grasped line of sight as the shooting target state information, and the captured image information (data contents are illustrated in FIG. 11 data contents). According to this configuration, the image specifying unit 10a displays, on the display unit 40, image data of an image in which the subject in a state satisfying the third predetermined relationship with the line of sight of the shooting target in the shot image is displayed in step S110. The recorded image data of the recorded image to be displayed is specified. Here, the state satisfying the third predetermined relationship refers to a state of a recorded image in which the subject is located in a divided region corresponding to a divided region that can be determined to be the tip of the line of sight to be imaged. As shown in FIG. 19, the image specifying device 1 displays a recorded image in which the subject 1911 appears in a divided area that can be determined to be the tip of the line of sight of the subject 1901 (see the broken line arrow). The image specifying device 1 can give a new impression to a person to be photographed. The state detection unit 10b analyzes the inside of the face area and grasps the line of sight of the face in the face area. The line of sight detects the eye area of the face from the face area (detected by pattern matching using the image of interest and the eye template image in the same manner as the detection of the face area), and the detected white area of the eye It can be grasped where the (white eye part) is located in the whole detected eye. Then, the state detection unit 10b refers to the data table that identifies the range of the line of sight and the divided area that is considered to be ahead of the line of sight based on the detected line of sight, and which divided area the line of sight has A divided area that can be determined to be inward, that is, a line-of-sight destination is grasped. For example, if the eye of the subject 911a in FIG. 9 faces inward in the horizontal direction in FIG. 9 and the distribution of white eyes in the entire eye is within a predetermined range, the divided region ahead of this line of sight is B1. Suppose that It should be noted that other known methods can be employed for grasping the line of sight. Note that the divided area may be replaced with information of another area (for example, a predetermined range area using coordinates).

なお、撮影対象の状態は、上記の撮影対象の位置、上記の撮影対象の数、及び、上記の撮影対象の視線等のうちの少なくとも一つを含めばよい。この場合、被写体の状態も撮影対象の状態に対応して、被写体の位置又は被写体の数の少なくとも一つとなる(上記参照)。そして、画像特定部10aは、ステップS110において、撮影画像情報に含まれる撮影対象の状態と或る関係(例えば上記一定の関係)を満たす被写体の状態を示す被写体状態情報の記録画像データを取得する。ここで、両者が満たす或る関係は、例えば、上記の第1乃至第3の所定の関係のうちの少なくも一つ又は組合せから適宜選択できる。また、第1の関係は、分割領域が対応する場合であっても、分割領域が異なる場合でも、どちらでも良い。また、撮影対象の状態が、撮影対象の位置と撮影対象の視線とを含む場合、撮影対象状態情報は撮影対象の位置用の位置情報と撮影対象の視線用の位置情報とを含むことが望ましい。   Note that the state of the shooting target may include at least one of the position of the shooting target, the number of the shooting targets, the line of sight of the shooting target, and the like. In this case, the state of the subject is also at least one of the position of the subject or the number of subjects corresponding to the state of the subject to be photographed (see above). In step S110, the image specifying unit 10a acquires recorded image data of subject state information indicating a state of a subject that satisfies a certain relationship (for example, the predetermined relationship) with the state of the photographing target included in the photographed image information. . Here, the certain relationship that the two satisfy can be selected as appropriate from at least one of or a combination of the first to third predetermined relationships. The first relationship may be either the case where the divided areas correspond or the case where the divided areas are different. In addition, when the state of the shooting target includes the position of the shooting target and the line of sight of the shooting target, the shooting target state information preferably includes position information for the position of the shooting target and position information for the line of sight of the shooting target. .

本実施形態における画像特定装置1は表示制御装置であり、画像選択プログラム25は表示制御プログラムでもある。制御部10は、上述のように、予め撮影された記録画像データの記録画像であって、表示部40の前方の人物又は動物の状態と一定の関係を満たす状態にある人物又は動物が写った記録画像を表示部40に表示させる(この表示方法は上記具体例以外の他の方法で実現されてもよい)。これによって、鑑賞者に新たな印象を与える。   The image specifying device 1 in the present embodiment is a display control device, and the image selection program 25 is also a display control program. As described above, the control unit 10 is a recorded image of pre-recorded recording image data, and a person or animal in a state satisfying a certain relationship with the state of the person or animal in front of the display unit 40 is shown. The recorded image is displayed on the display unit 40 (this display method may be realized by a method other than the above specific example). This gives a new impression to the viewer.

1・・・画像特定装置、10・・・制御部、10a・・・画像特定部、10b・・・状態検出部、11・・・CPU、12・・・一次記憶装置、20・・・記憶部、21・・・二次記憶装置、25・・・画像特定プログラム、30・・・撮影部、31・・・撮影装置、40・・・表示部、41・・・駆動回路、42・・・表示パネル、50・・・入力部、51・・・入力装置、60・・・読出部、61・・・読出装置、100・・・メモリーカード、A1乃至A4・・・分割領域、511・・・人物、511a・・・顔(被写体)、512・・・人物、512a・・・顔(被写体)、521・・・顔領域(被写体領域)、522・・・顔領域(被写体領域)、911・・・人物、911a・・・顔(撮影対象)、921・・・顔領域(撮影対象領域)、1201・・・顔(撮影対象)、1211・・・顔(被写体)、1301・・・顔(撮影対象)、1311・・・顔(被写体)、1312・・・顔(被写体)、1401・・・顔(撮影対象)、1411・・・顔(被写体)、1412・・・顔(被写体)、1501・・・顔(撮影対象)、1511・・・顔(被写体)、1601・・・顔(撮影対象)、1602・・・顔(撮影対象)、1611・・・顔(被写体)、1612・・・顔(被写体)、1901・・・顔(撮影対象)、1911・・・顔(被写体) DESCRIPTION OF SYMBOLS 1 ... Image identification apparatus, 10 ... Control part, 10a ... Image identification part, 10b ... State detection part, 11 ... CPU, 12 ... Primary storage device, 20 ... Memory | storage , 21 ... secondary storage device, 25 ... image specifying program, 30 ... photographing unit, 31 ... photographing device, 40 ... display unit, 41 ... drive circuit, 42 ... Display panel 50 ... Input unit 51 ... Input device 60 ... Reading unit 61 ... Reading device 100 ... Memory card A1 to A4 ... Divided area 511 ..Person, 511a ... face (subject), 512 ... person, 512a ... face (subject), 521 ... face area (subject area), 522 ... face area (subject area), 911... Person, 911 a... Face (photographing target), 921. Area), 1201... Face (photographing target), 1211... Face (subject), 1301... Face (photographing target), 1311... Face (subject), 1312. 1401... Face (photographing target), 1411... Face (subject), 1412... Face (subject), 1501... Face (photographing target), 1511. Face (shooting target), 1602 ... Face (shooting target), 1611 ... Face (subject), 1612 ... Face (subject), 1901 ... Face (shooting target), 1911 ... Face (subject)

Claims (13)

表示部の表示面の前方を撮影した撮影画像のデータである撮影画像データを取得し、取得した前記撮影画像データを分析して前記撮影画像における撮影対象の状態を検出する状態検出手段と、
前記状態検出手段が検出した前記撮影対象の状態に基づいて前記表示部に表示する画像の画像データを特定する画像特定手段と、
を備えることを特徴とする画像特定装置。
State detection means for acquiring captured image data, which is data of a captured image captured in front of the display surface of the display unit, and analyzing the acquired captured image data to detect a state of a capturing target in the captured image;
Image specifying means for specifying image data of an image to be displayed on the display unit based on the state of the photographing target detected by the state detecting means;
An image specifying apparatus comprising:
前記撮影対象の状態は、前記撮影画像における前記撮影対象の位置を含み、
前記画像特定手段は、前記撮影画像における前記撮影対象の位置と第1の所定の関係を満たす位置に被写体が写った画像の画像データを、前記表示部に表示する前記画像の前記画像データとして特定する
ことを特徴とする請求項1に記載の画像特定装置。
The state of the shooting target includes a position of the shooting target in the shot image,
The image specifying means specifies, as the image data of the image to be displayed on the display unit, image data of an image in which a subject is captured at a position satisfying a first predetermined relationship with the position of the shooting target in the shot image. The image specifying device according to claim 1.
前記第1の所定の関係は、前記撮影対象と前記被写体とが、画像上の互いに対応する領域内に位置する関係であることを特徴とする請求項2に記載の画像特定装置。   The image specifying apparatus according to claim 2, wherein the first predetermined relationship is a relationship in which the photographing target and the subject are located in regions corresponding to each other on the image. 前記第1の所定の関係は、前記撮影対象と前記被写体とが、画像上の異なる領域内に位置する関係であることを特徴とする請求項2に記載の画像特定装置。   The image specifying apparatus according to claim 2, wherein the first predetermined relationship is a relationship in which the photographing target and the subject are located in different regions on the image. 前記撮影画像における前記撮影対象の状態は、前記撮影画像における前記撮影対象の数を含み、
前記画像特定手段は、前記撮影画像における前記撮影対象の数と第2の所定の関係を満たす数の被写体が写った画像の画像データを、前記表示部に表示する前記画像の前記画像データとして特定する
ことを特徴とする請求項1に記載の画像特定装置。
The state of the shooting target in the shot image includes the number of shooting targets in the shot image,
The image specifying means specifies, as the image data of the image to be displayed on the display unit, image data of an image in which a number of subjects satisfying a second predetermined relationship with the number of shooting objects in the captured image is displayed. The image specifying device according to claim 1.
前記撮影対象の状態は、前記撮影画像における前記撮影対象の視線を含み、
前記画像特定手段は、前記撮影画像における前記撮影対象の視線と第3の所定の関係を満たす状態の被写体が写った画像の画像データを、前記表示部に表示する前記画像の前記画像データとして特定する
ことを特徴とする請求項1に記載の画像特定装置。
The state of the shooting target includes a line of sight of the shooting target in the shot image,
The image specifying means specifies, as the image data of the image to be displayed on the display unit, image data of an image in which a subject satisfying a third predetermined relationship with the line of sight of the shooting target in the shot image is displayed. The image specifying device according to claim 1.
前記画像特定手段は、前記画像データを複数特定し、特定した前記画像データの前記画像の表示順序を、前記撮影対象の特徴と特定した前記画像データの前記画像の被写体の特徴との類似度に基づいて特定することを特徴とする請求項1乃至6のいずれか1項に記載の画像特定装置。   The image specifying unit specifies a plurality of the image data, and sets the display order of the specified image data to a similarity between the characteristics of the photographing target and the characteristics of the subject of the specified image data. The image specifying device according to claim 1, wherein the image specifying device is specified based on the information. 前記画像特定手段は、前記状態検出手段が新たな前記撮影対象の状態を検出すると、検出した新たな前記撮影対象の状態に基づいて、前記複数の画像データの中から前記表示部に表示する前記画像の前記画像データを特定することを特徴とする請求項1乃至7のいずれか1項に記載の画像特定装置。   When the state detection unit detects a new state of the shooting target, the image specifying unit displays the image on the display unit from among the plurality of image data based on the detected state of the new shooting target. The image specifying device according to claim 1, wherein the image data of an image is specified. 前記表示部をさらに備え、
前記画像特定手段は、特定した前記画像データの前記画像を前記表示部に表示させることを特徴とする請求項1乃至8のいずれか1項に記載の画像特定装置。
The display unit further includes
The image specifying device according to claim 1, wherein the image specifying unit displays the image of the specified image data on the display unit.
前記撮影対象を撮影する撮影部をさらに備え、
前記状態情報生成手段は、前記撮影部が撮影した前記撮影画像のデータである前記撮影画像データを取得する
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像特定装置。
It further includes a photographing unit that photographs the photographing object,
The image specifying apparatus according to any one of claims 1 to 9, wherein the state information generation unit acquires the captured image data that is data of the captured image captured by the capturing unit.
表示部に画像を表示させる表示制御装置であって、
予め撮影された画像データの画像であって、前記表示部の前方の人物又は動物の状態と一定の関係を満たす状態にある人物又は動物が写った画像を前記表示部に表示させる制御部を備える
ことを特徴とする表示制御装置。
A display control device for displaying an image on a display unit,
A control unit that displays on the display unit an image of a pre-photographed image data that shows a person or animal in a state that satisfies a certain relationship with the state of the person or animal in front of the display unit; A display control device characterized by that.
コンピュータに、
表示部の表示面の前方を撮影した撮影画像のデータである撮影画像データを取得し、取得した前記撮影画像データを分析して前記撮影画像における撮影対象の状態を検出する状態検出ステップと、
前記状態検出ステップで検出した前記撮影対象の状態に基づいて前記表示部に表示する画像の画像データを特定する画像特定ステップと、
を行わせることを特徴とする画像特定プログラム。
On the computer,
A state detection step of acquiring captured image data, which is data of a captured image captured in front of the display surface of the display unit, and analyzing the acquired captured image data to detect a state of a capturing target in the captured image;
An image specifying step for specifying image data of an image to be displayed on the display unit based on the state of the photographing target detected in the state detecting step;
An image specifying program characterized in that
表示部に画像を表示させるコンピュータに、
予め撮影された画像データの画像であって、前記表示部の前方の人物又は動物の状態と一定の関係を満たす状態にある人物又は動物が写った画像を前記表示部に表示させるステップ
を行わせることを特徴とする表示制御プログラム。
On the computer that displays the image on the display,
Causing the display unit to display an image of a pre-captured image data in which a person or animal in a state satisfying a certain relationship with the state of the person or animal in front of the display unit is captured. A display control program characterized by that.
JP2009136613A 2009-06-05 2009-06-05 Image specifying device and image specifying program Expired - Fee Related JP5293422B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009136613A JP5293422B2 (en) 2009-06-05 2009-06-05 Image specifying device and image specifying program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009136613A JP5293422B2 (en) 2009-06-05 2009-06-05 Image specifying device and image specifying program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013117612A Division JP2013225876A (en) 2013-06-04 2013-06-04 Image specifying device, and image specifying program

Publications (2)

Publication Number Publication Date
JP2010283691A true JP2010283691A (en) 2010-12-16
JP5293422B2 JP5293422B2 (en) 2013-09-18

Family

ID=43540030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009136613A Expired - Fee Related JP5293422B2 (en) 2009-06-05 2009-06-05 Image specifying device and image specifying program

Country Status (1)

Country Link
JP (1) JP5293422B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012023363A1 (en) 2010-08-17 2012-02-23 Hirayama Sadahiro Method for authenticity assessment easily performed by ordinary people using printed minute identification mark
WO2013176174A1 (en) * 2012-05-24 2013-11-28 富士フイルム株式会社 Image display device, image display method and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003186596A (en) * 2001-12-13 2003-07-04 Seiko Epson Corp Display device and input method of the same
JP2003315941A (en) * 2002-04-22 2003-11-06 Noritsu Koki Co Ltd Photographic processing device
JP2006155238A (en) * 2004-11-29 2006-06-15 Hiroshima Univ Information processor, processing method, and processing program, portable terminal, and computer-readable recording medium
JP2007226536A (en) * 2006-02-23 2007-09-06 Seiko Epson Corp Image search device, image search method, and program for searching image
JP2007310813A (en) * 2006-05-22 2007-11-29 Nikon Corp Image retrieving device and camera
JP2009065324A (en) * 2007-09-05 2009-03-26 Nippon Telegr & Teleph Corp <Ntt> Image providing device, image providing method and image providing program
JP2009116871A (en) * 2007-11-06 2009-05-28 Palo Alto Research Center Inc Method and apparatus for extending function of mirror using information related to mirrored content and motion

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003186596A (en) * 2001-12-13 2003-07-04 Seiko Epson Corp Display device and input method of the same
JP2003315941A (en) * 2002-04-22 2003-11-06 Noritsu Koki Co Ltd Photographic processing device
JP2006155238A (en) * 2004-11-29 2006-06-15 Hiroshima Univ Information processor, processing method, and processing program, portable terminal, and computer-readable recording medium
JP2007226536A (en) * 2006-02-23 2007-09-06 Seiko Epson Corp Image search device, image search method, and program for searching image
JP2007310813A (en) * 2006-05-22 2007-11-29 Nikon Corp Image retrieving device and camera
JP2009065324A (en) * 2007-09-05 2009-03-26 Nippon Telegr & Teleph Corp <Ntt> Image providing device, image providing method and image providing program
JP2009116871A (en) * 2007-11-06 2009-05-28 Palo Alto Research Center Inc Method and apparatus for extending function of mirror using information related to mirrored content and motion

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012023363A1 (en) 2010-08-17 2012-02-23 Hirayama Sadahiro Method for authenticity assessment easily performed by ordinary people using printed minute identification mark
WO2013176174A1 (en) * 2012-05-24 2013-11-28 富士フイルム株式会社 Image display device, image display method and program
US9207847B2 (en) 2012-05-24 2015-12-08 Fujifilm Corporation Image display device, image display method and program

Also Published As

Publication number Publication date
JP5293422B2 (en) 2013-09-18

Similar Documents

Publication Publication Date Title
US8253794B2 (en) Image processing apparatus and image display method
JP4177750B2 (en) Imaging apparatus and method for determining important regions in archive images
JP5299912B2 (en) Imaging device and data structure of image file
US20090102942A1 (en) Composition determining apparatus, composition determining method, and program
JP2012027687A (en) Image processing apparatus and program
US20100246968A1 (en) Image capturing apparatus, image processing method and recording medium
US20050231602A1 (en) Providing a visual indication of the content of a video by analyzing a likely user intent
JP2008035149A (en) Video recording and reproducing system and video recording and reproducing method
JP5504990B2 (en) Imaging apparatus, image processing apparatus, and program
JP2014050022A (en) Image processing device, imaging device, and program
JP2009089220A (en) Imaging apparatus
JP5293422B2 (en) Image specifying device and image specifying program
JP2010237911A (en) Electronic apparatus
JP4636024B2 (en) Imaging device
JP2013225876A (en) Image specifying device, and image specifying program
JP5479149B2 (en) Image generation device
JP2006109005A (en) Image output device and imaging device
JP2011101161A (en) Imaging device, control method of the same, reproducing device, and program
JP4568797B2 (en) Video camera shooting support program and editing support program
JP5332668B2 (en) Imaging apparatus and subject detection program
JP4508112B2 (en) Still image extraction system
JP2011139123A (en) Image processor and image processing program
JP2005164832A (en) Method and device for generating stereoscopic image and program
JP2014067142A (en) Image processing apparatus, image processing method, imaging apparatus, and imaging method
JP2005328446A (en) Image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130527

R150 Certificate of patent or registration of utility model

Ref document number: 5293422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees