JP2011228878A - Reproducer - Google Patents

Reproducer Download PDF

Info

Publication number
JP2011228878A
JP2011228878A JP2010095798A JP2010095798A JP2011228878A JP 2011228878 A JP2011228878 A JP 2011228878A JP 2010095798 A JP2010095798 A JP 2010095798A JP 2010095798 A JP2010095798 A JP 2010095798A JP 2011228878 A JP2011228878 A JP 2011228878A
Authority
JP
Japan
Prior art keywords
unit
image
information
reproduction
age
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010095798A
Other languages
Japanese (ja)
Inventor
Masakazu Tanaka
真和 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010095798A priority Critical patent/JP2011228878A/en
Publication of JP2011228878A publication Critical patent/JP2011228878A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a reproducer that can control reproduction of information to be reproduced by a reproduction unit based on the age of a user.SOLUTION: The reproducer comprises: a reproduction unit 6, 12 that reproduces information; an imaging unit 10 that images a subject and outputs an image signal; a detector 38 that detects a face image of a person based on the image signal output by the imaging unit 10; an age estimation unit 40 that estimates the age of the person based on the face image detected by the detector 38; and a reproduction control unit 30 that controls the reproduction of the information by the reproduction unit 6, 12 based on the age estimated by the age estimation unit 40.

Description

本発明は、ユーザーの年齢を推定し、推定結果により情報の再生制御を行う再生装置に関するものである。   The present invention relates to a playback apparatus that estimates the age of a user and controls playback of information based on the estimation result.

予め使用者の顔を登録しておき、撮影部が、画像表示部に画像を表示する際に画像表示部の正面方向を撮影し、使用者の顔が撮影された場合において、顔判断部が、撮影された使用者の顔と予め登録されている使用者の顔とが一致するか否かを判断し、一致する場合において、認識情報取得部が、登録されている使用者毎に且つメモリに記憶されている画像毎に使用者が画像を認識した回数、時間を認識情報として取得し、優先順位決定部が、認識情報に基づいて登録されている使用者毎に画像の優先順位を決定し、表示制御部が、画像の優先順位に基づいて、使用者毎に応じた画像を画像表示部に表示させる画像表示装置が提案されている(例えば、特許文献1参照)。   When the user's face is registered in advance, the photographing unit photographs the front direction of the image display unit when displaying the image on the image display unit, and when the user's face is photographed, the face determination unit Then, it is determined whether or not the photographed user's face coincides with the user's face registered in advance, and in the case of coincidence, the recognition information acquisition unit stores the memory for each registered user. The number of times the user recognizes the image for each image stored in the image and the time are acquired as recognition information, and the priority order determination unit determines the image priority order for each registered user based on the recognition information. An image display device has been proposed in which the display control unit displays an image corresponding to each user on the image display unit based on the priority order of the images (for example, see Patent Document 1).

特開2008−165009号公報JP 2008-165209 A

ところで、上述の特許文献1記載の画像表示装置では、登録されている使用者の顔と撮影される使用者の顔が一致するか否かを判断しているが、使用者の年齢に応じて、再生内容を制御していない。   By the way, in the above-described image display device described in Patent Document 1, it is determined whether or not the registered user's face and the user's face to be photographed match, but depending on the age of the user. , Playback content is not controlled.

本発明の目的は、使用者の年齢に応じて再生部により再生する情報を制御することができる再生装置を提供することである。   The objective of this invention is providing the reproducing | regenerating apparatus which can control the information reproduced | regenerated by a reproducing part according to a user's age.

本発明の再生装置は、情報を再生する再生部と、被写体を撮像し画像信号を出力する撮像部と、前記撮像部から出力された前記画像信号に基づいて、人物の顔画像を検出する検出部と、前記検出部により検出された前記人物の顔画像に基づいて、前記人物の年齢を推定する年齢推定部と、前記年齢推定部により推定された前記年齢に基づいて、前記再生部による情報の再生を制御する再生制御部とを備えることを特徴とする。   The reproduction apparatus of the present invention includes a reproduction unit that reproduces information, an imaging unit that captures an image of a subject and outputs an image signal, and detection that detects a human face image based on the image signal output from the imaging unit. Information based on the age estimated by the age estimating unit, the age estimating unit estimating the age of the person based on the face image of the person detected by the detecting unit, and the information estimated by the reproducing unit And a reproduction control unit for controlling reproduction of the video.

本発明の再生装置によれば、使用者の年齢に応じて再生部により再生する情報を制御することができる。   According to the reproducing apparatus of the present invention, information reproduced by the reproducing unit can be controlled according to the age of the user.

実施の形態に係るデジタルフォトフレームの外観を示す斜視図である。It is a perspective view which shows the external appearance of the digital photo frame which concerns on embodiment. 実施の形態に係るデジタルフォトフレームのシステム構成を示すブロック図である。1 is a block diagram showing a system configuration of a digital photo frame according to an embodiment. FIG. 関連情報記録部に記録されているテーブルを示す図である。It is a figure which shows the table currently recorded on the related information recording part. 登録情報記録部に記録されているテーブルを示す図である。It is a figure which shows the table currently recorded on the registration information recording part. 実施の形態に係るデジタルフォトフレームにおいてLCDパネルに表示させる画像を制御する際の処理について説明するためのフローチャートである。It is a flowchart for demonstrating the process at the time of controlling the image displayed on an LCD panel in the digital photo frame which concerns on embodiment. 登録情報の更新処理について説明するためのフローチャートである。It is a flowchart for demonstrating the update process of registration information. 鑑賞者が泣いていると判別され、LCDパネルに画像を表示した後、且つDPF2の電源がオフされたか否かの判別の前に実行される処理について説明するためのフローチャートである。10 is a flowchart for explaining processing executed after it is determined that the viewer is crying, an image is displayed on the LCD panel, and before determining whether or not the power of the DPF 2 is turned off. 鑑賞者が泣いていると判別され、LCDパネルに画像を表示した後、且つDPF2の電源がオフされたか否かの判別の前に実行される他の処理について説明するためのフローチャートである。12 is a flowchart for explaining another process executed after it is determined that the viewer is crying, an image is displayed on the LCD panel, and before the determination of whether or not the power of the DPF 2 is turned off. 関連情報記録部に記録されている他のテーブルを示す図である。It is a figure which shows the other table currently recorded on the related information recording part. 鑑賞者が泣いていると判別され、LCDパネルに画像を表示した後、且つDPF2の電源がオフされたか否かの判別の前に実行される他の処理について説明するためのフローチャートである。12 is a flowchart for explaining another process executed after it is determined that the viewer is crying, an image is displayed on the LCD panel, and before the determination of whether or not the power of the DPF 2 is turned off.

以下、図面を参照して、本発明の実施の形態に係る再生装置としてのデジタルフォトフレーム(以下、DPFという。)について説明する。なお、一般に、DPFとしては机等の上に立て掛けて設置するものや、壁に掛けて設置するもの等が存在するが、本発明の実施の形態としては、机等に立て掛けて設置するもの(電子写真立て)を例にして説明する。図1は、この実施の形態に係るDPFの外観を示す斜視図である。DPF2は、ガラスやプラスチック等からなる装置本体4を備え、装置本体4の前面には、鑑賞用画像、ユーザーの動画メッセージ、時刻等の情報を電気的に表示するLCDパネル6が設けられている。また、装置本体4の前面には、ユーザーの音声等が入力されるマイク8、DPF2の前面方向の被写体等を撮像し画像信号を出力するカメラ10、及び音楽や音声等が出力されるスピーカ12が設けられている。   Hereinafter, a digital photo frame (hereinafter referred to as a DPF) as a playback apparatus according to an embodiment of the present invention will be described with reference to the drawings. In general, there are DPFs that are installed on a desk or the like, and those that are installed on a wall. However, as an embodiment of the present invention, the DPF is installed on a desk or the like ( A description will be given using an example of an electronic photo frame. FIG. 1 is a perspective view showing the appearance of the DPF according to this embodiment. The DPF 2 includes a device main body 4 made of glass, plastic, or the like, and an LCD panel 6 that electrically displays information such as an image for viewing, a moving image message of a user, and time is provided on the front surface of the device main body 4. . In addition, on the front surface of the apparatus main body 4, a microphone 8 to which a user's voice and the like are input, a camera 10 that captures an image of a subject in the front direction of the DPF 2 and outputs an image signal, and a speaker 12 that outputs music, voice, and the like Is provided.

また、装置本体4の上面には、DPF2の電源のオン・オフ状態を切り替える電源スイッチ14、及びDPF2の機能設定やLCDパネル6の表示設定の際に使用する操作キー16が設けられている。また、装置本体4の一方の側面には、鑑賞用画像や音声等のデータが記録されたメモリカードが挿入されるメモリカードスロット18、USB機器が接続されるUSBポート20、及びインターネット等のネットワークに接続するために用いられるネットワーク端子22が設けられている。   Further, on the upper surface of the apparatus main body 4, a power switch 14 for switching the power on / off state of the DPF 2 and operation keys 16 used for setting the function of the DPF 2 and setting the display of the LCD panel 6 are provided. Further, on one side of the apparatus main body 4, a memory card slot 18 into which a memory card in which data such as images for viewing and sound are recorded is inserted, a USB port 20 to which a USB device is connected, and a network such as the Internet. A network terminal 22 used for connection to the network is provided.

図2は、この実施の形態に係るDPF2のシステム構成を示すブロック図である。図2に示すように、DPF2の各部を統括的に制御するCPU30は、電力供給制御部32、登録情報更新部34、類似度判定部36、顔画像検出部38、年齢推定部40、泣き声判定部42、及びネットワーク接続部44を備えて構成されている。電力供給制御部32は、ユーザーにより電源スイッチ14が操作されることによりDPF2の電源オン・オフの切替制御を行い、かつ電源スイッチ14の操作の有無に関係なく、後述する時間部56による計測結果に基づいてDPF2への電力供給を制御する。   FIG. 2 is a block diagram showing a system configuration of the DPF 2 according to this embodiment. As shown in FIG. 2, the CPU 30 that comprehensively controls each part of the DPF 2 includes a power supply control unit 32, a registration information update unit 34, a similarity determination unit 36, a face image detection unit 38, an age estimation unit 40, and a crying determination. Unit 42 and a network connection unit 44. The power supply control unit 32 performs power on / off switching control of the DPF 2 by the user operating the power switch 14, and the measurement result by the time unit 56 described later regardless of whether the power switch 14 is operated or not. The power supply to the DPF 2 is controlled based on the above.

登録情報更新部34は、内部メモリ46及び上述のカメラ10に接続されており、内部メモリ46内の登録情報記録部54に記録されている登録情報(後述する)の更新を制御する。   The registration information update unit 34 is connected to the internal memory 46 and the above-described camera 10, and controls the update of registration information (described later) recorded in the registration information recording unit 54 in the internal memory 46.

内部メモリ46は、画像記録部48、音声記録部50、関連情報記録部52、登録情報記録部54を備えて構成されている。画像記録部48にはLCDパネル6に表示される画像の画像データが記録されており、音声記録部50にはスピーカ12から出力される音声の音声データや音楽の音楽データが記録されている。   The internal memory 46 includes an image recording unit 48, an audio recording unit 50, a related information recording unit 52, and a registration information recording unit 54. The image recording unit 48 stores image data of an image displayed on the LCD panel 6, and the audio recording unit 50 stores audio data of audio output from the speaker 12 and music data of music.

関連情報記録部52には、LCDパネル6に表示される画像を鑑賞する鑑賞者の年齢等に基づいて、画像記録部48に記録されている画像データ等が、「子供用」「泣く子供用」「大人用」に分類され、テーブル形式で記録されている。図3は、関連情報記録部52に記録されているテーブルを示す図である。図3に示すように、関連情報記録部52には、ファイル1.jpg、ファイル2.jpg、ファイル3.jpg、フォルダ1、フォルダ2、フォルダ3等のファイルやフォルダが「子供用」に分類され、ファイルα.bmp、ファイルβ.bmp、ファイルγ.bmp、フォルダα、フォルダβ、フォルダγ等のファイルやフォルダが「泣く子供用」に分類され、ファイルA.jpg、ファイルB.jpg、ファイルC.jpg、フォルダA、フォルダB、フォルダC等のファイルやフォルダが「大人用」に分類され、記録されている。例えば、アニメ等の子供の好む画像は「子供用」や「泣く子供用」に分類され、泣いている子供が鑑賞すると泣き止むことが予想される画像は「泣く子供用」に分類される。なお、関連情報記録部52に記録されているファイルは、LCDパネル6に1つの画像を表示させる際の該画像の画像データのファイルであり、関連情報記録部52に記録されているフォルダは、LCDパネル6にスライドショーで複数の画像を表示させる際の該複数の画像の画像データを格納するフォルダである。また、関連情報記録部52には、音声記録部50に記録されている音声データや音楽データ等も、「子供用」「泣く子供用」「大人用」に分類され、テーブル形式で記録されている。   In the related information recording unit 52, image data and the like recorded in the image recording unit 48 based on the age of the viewer who views the image displayed on the LCD panel 6 are “for children” and “for children who cry”. "For adults" is recorded in a table format. FIG. 3 is a diagram showing a table recorded in the related information recording unit 52. As shown in FIG. 3, the related information recording unit 52 includes files 1. jpg, file 2. jpg, file 3. jpg, folder 1, folder 2, folder 3, etc. are classified as “for children”, and the file α. bmp, file β. bmp, file γ. bmp, folder α, folder β, folder γ, and other files and folders are classified as “for crying children”. jpg, file B. jpg, file C.I. Files and folders such as jpg, folder A, folder B, and folder C are classified and recorded as “for adults”. For example, children's images such as anime are classified as “for children” and “for children who cry”, and images expected to stop crying when a crying child appreciates are classified as “for children who cry”. The file recorded in the related information recording unit 52 is a file of image data of the image when displaying one image on the LCD panel 6, and the folder recorded in the related information recording unit 52 is: This folder stores image data of a plurality of images when displaying a plurality of images on the LCD panel 6 in a slide show. The related information recording unit 52 also classifies audio data, music data, and the like recorded in the audio recording unit 50 into “for children”, “for crying children”, and “for adults” and is recorded in a table format. Yes.

登録情報記録部54には、DPF2のユーザーであって、所定年齢以下(例えば、18歳以下等、所謂子供に分類される年齢以下)のユーザーの名前、顔画像、年齢、及び更新日時等を含むユーザー情報が登録情報としてテーブル形式で記録されている。図4は、登録情報記録部54に記録されているテーブルを示す図である。図4に示すように、登録情報記録部54には、ユーザーの名前「太郎」、太郎の顔画像「taro.jpg」、太郎の年齢「6」及び更新日時(または登録日時)「2009/11/15 15:45」を含む太郎のユーザー情報が登録情報として記録されている。同様に、ユーザーの名前「花子」や「貞子」を含む花子や貞子のユーザー情報が登録情報として記録されている。これらのユーザー情報はユーザーにより操作キー16等を介して入力され、CPU30は入力されたユーザー情報を登録情報として登録情報記録部54に記録させる。このとき、カメラ10により撮像された画像または画像記録部48やメモリカード(メモリカードスロット18に挿入されたメモリカード、図示せず)に記録されている画像をユーザーの顔画像として記録させる。   In the registration information recording unit 54, the name, face image, age, update date and time, etc. of a user who is a DPF 2 user and who is not more than a predetermined age (for example, 18 years old or less, such as an age classified as a child) User information is recorded as registration information in a table format. FIG. 4 is a diagram illustrating a table recorded in the registration information recording unit 54. As illustrated in FIG. 4, the registration information recording unit 54 includes a user name “Taro”, Taro's face image “taro.jpg”, Taro's age “6”, and update date (or registration date) “2009/11”. / 15 15:45 "is recorded as registration information. Similarly, user information of Hanako and Sadako including the user names “Hanako” and “Sadako” is recorded as registration information. The user information is input by the user via the operation key 16 and the like, and the CPU 30 records the input user information in the registration information recording unit 54 as registration information. At this time, an image captured by the camera 10 or an image recorded on the image recording unit 48 or a memory card (a memory card inserted into the memory card slot 18, not shown) is recorded as a user's face image.

また、ユーザーにより年齢が入力され、記録されると、登録情報更新部34は、後述する時計部56から時刻や日付を取得し、ユーザーの年齢を管理し、登録情報記録部54に記録されているユーザーの年齢の更新を行う。また、ユーザーの年齢が所定年齢に達したとき、登録情報更新部34は、そのユーザーの登録情報の削除処理または他の登録情報との分離処理を実行する。なお、他の登録情報との分離については、後述する。また、この実施の形態では、年齢を入力し、記録しているが、生年月日を入力し、年齢を記録する構成にしてもよく、生年月日を入力し、記録する構成にしてもよい。また、更新日時は、最初に記録されたときの日時である登録日時、または、後にユーザーの顔画像が更新されたときの日時である更新日時のことであり、登録情報更新部34は、古い更新日時から新しい更新日時へ書き換え、記録する。ユーザーの顔画像の更新については、後述する。   When the age is input and recorded by the user, the registration information update unit 34 acquires the time and date from the clock unit 56 described later, manages the user's age, and is recorded in the registration information recording unit 54. Update the age of the user. When the user's age reaches a predetermined age, the registration information update unit 34 executes a deletion process of the user's registration information or a separation process from other registration information. The separation from other registration information will be described later. In this embodiment, the age is input and recorded. However, the date of birth may be input and the age may be recorded, or the date of birth may be input and recorded. . Further, the update date / time is a registration date / time that is the date / time when it was first recorded, or an update date / time that is a date / time when the user's face image was updated later. Rewrite from the update date and time to the new update date and record. The update of the user's face image will be described later.

類似度判定部36は、内部メモリ46及び顔画像検出部38に接続されており、内部メモリ46内の登録情報記録部54に記録されているユーザーの顔画像と、カメラ10により撮像され顔画像検出部38により検出されるユーザーの顔画像との類似度を判定する。顔画像検出部38は、カメラ10に接続されており、カメラ10から出力された画像信号に基づいてユーザーの顔画像を検出する。例えば、公知の顔認識機能を用いて、カメラ10により撮像される画像から人物の顔を認識し、顔画像を検出する。年齢推定部40は、顔画像検出部38に接続されており、公知の年齢推定機能を用いて、顔画像検出部38により検出されたユーザーの顔画像に基づいてユーザーの年齢を推定する。泣き声判定部42は、マイク8に接続されており、マイク8から出力された音声信号に基づいて、音声に泣き声が含まれているか否かを判定する。   The similarity determination unit 36 is connected to the internal memory 46 and the face image detection unit 38, and the user's face image recorded in the registration information recording unit 54 in the internal memory 46 and the face image captured by the camera 10. The similarity with the user's face image detected by the detection unit 38 is determined. The face image detection unit 38 is connected to the camera 10 and detects a user's face image based on an image signal output from the camera 10. For example, a human face is recognized from an image captured by the camera 10 using a known face recognition function, and a face image is detected. The age estimation unit 40 is connected to the face image detection unit 38 and estimates the user's age based on the user's face image detected by the face image detection unit 38 using a known age estimation function. The cry determination unit 42 is connected to the microphone 8 and determines whether or not a cry is included in the voice based on the audio signal output from the microphone 8.

ネットワーク接続部44は、ネットワーク端子22に接続されており、ネットワーク端子22及びネットワークを介して接続されている外部装置等から送信される種々の情報を受信し、かつ該外部装置等に対して種々の情報を送信する。なお、この実施の形態では、DPF2にはネットワーク端子22を介してインターネット62が接続されており、インターネット62にはサーバ64が接続されているものとし、ネットワーク接続部44は、サーバ64から送信される種々の情報を受信し、かつサーバ64に対して種々の情報を送信するものとする。   The network connection unit 44 is connected to the network terminal 22, receives various information transmitted from the network terminal 22 and an external device connected via the network, and receives various information from the external device. Send information. In this embodiment, it is assumed that the Internet 62 is connected to the DPF 2 via the network terminal 22, the server 64 is connected to the Internet 62, and the network connection unit 44 is transmitted from the server 64. It is assumed that various information is received and various information is transmitted to the server 64.

また、図2に示すように、CPU30には、上述の操作キー22、メモリカードスロット18、及びUSBポート20が接続されている。また、CPU30には、時計部56、表示制御部58、及び再生制御部60が接続されている。時計部56は、時刻及び日付の管理を行う。表示制御部58は、LCDパネル6に表示される画像等の表示制御を行い、再生制御部60は、スピーカ12から出力される音楽や音声の再生制御を行う。   As shown in FIG. 2, the operation key 22, the memory card slot 18, and the USB port 20 are connected to the CPU 30. Further, the clock unit 56, the display control unit 58, and the reproduction control unit 60 are connected to the CPU 30. The clock unit 56 manages time and date. The display control unit 58 performs display control of images and the like displayed on the LCD panel 6, and the reproduction control unit 60 performs reproduction control of music and audio output from the speaker 12.

この実施の形態に係るDPF2では、DPF2の前面方向をカメラ10により撮像し、カメラ10の撮像結果に基づいて顔画像検出部38によりユーザーの顔画像を検出し、顔画像検出部38による検出結果に基づいて年齢推定部40によりユーザーの年齢を推定し、年齢推定部40による推定結果に基づいてLCDパネル6に表示させる画像及びスピーカ12に再生させる音声や音楽を制御する。以下、図5に示すフローチャートを参照して、この実施の形態に係るDPF2においてLCDパネル6に表示させる画像を制御する際の処理について説明する。   In the DPF 2 according to this embodiment, the front direction of the DPF 2 is imaged by the camera 10, the face image detection unit 38 detects the face image of the user based on the imaging result of the camera 10, and the detection result by the face image detection unit 38 Based on the above, the age of the user is estimated by the age estimating unit 40, and the image displayed on the LCD panel 6 and the sound and music to be reproduced by the speaker 12 are controlled based on the estimation result by the age estimating unit 40. Hereinafter, with reference to the flowchart shown in FIG. 5, a process for controlling an image to be displayed on the LCD panel 6 in the DPF 2 according to this embodiment will be described.

まず、CPU30は、ユーザーにより電源スイッチ14が押下されることにより、電力供給制御部32においてDPF2の電源をオンしたか否かを判別する(ステップS10)。ステップS10においてDPF2の電源をオンした場合には(ステップS10、Yes)、CPU30は、カメラ10にDPF2の前面方向を撮像させる(ステップS11)。   First, the CPU 30 determines whether or not the power supply control unit 32 has turned on the power of the DPF 2 when the power switch 14 is pressed by the user (step S10). When the power of the DPF 2 is turned on in step S10 (step S10, Yes), the CPU 30 causes the camera 10 to image the front direction of the DPF 2 (step S11).

次に、CPU30は、顔画像検出部38において、ステップS11でカメラ10に撮像させた画像の中から顔画像の検出を実行し、少なくとも1つの顔画像を検出することができたか否かを判別する(ステップS12)。ステップS12において少なくとも1つの顔画像を検出した場合には(ステップS12、Yes)、CPU30は、DPF2の鑑賞者が少なくとも1人存在すると判断し、まず、登録情報記録部54に記録されている登録者の顔画像(図4に示すtaro.jpg、hanako.jpg、sadako.jpg)を読み込む。このとき、登録者の年齢が所定年齢(例えば18歳以上等、所謂大人に分類される年齢)に達しており、他の登録者の登録情報と分離して登録されている登録情報下の顔画像については読み込まれない。即ち、所定年齢以下の登録者の顔画像を読み込む。   Next, the CPU 30 performs face image detection from the images captured by the camera 10 in step S11 in the face image detection unit 38, and determines whether or not at least one face image has been detected. (Step S12). When at least one face image is detected in step S12 (step S12, Yes), the CPU 30 determines that there is at least one viewer of the DPF 2, and first, the registration recorded in the registration information recording unit 54 is performed. A person's face image (taro.jpg, hanako.jpg, sadako.jpg shown in FIG. 4) is read. At this time, the registrant's age has reached a predetermined age (for example, an age classified as a so-called adult, such as 18 years of age or older), and the face under the registration information that is registered separately from the registration information of other registrants The image is not read. That is, a face image of a registrant who is a predetermined age or less is read.

そして、CPU30は、類似度判定部36において、顔画像検出部38により検出された鑑賞者の顔画像と、登録情報記録部54に記録されている登録者の顔画像との類似度を求め、求めた類似度が所定値以上であるか否かを判別する(ステップS13)。なお、所定値は予め設定されており、類似度が所定値以上である場合には(ステップS13、Yes)、CPU30は、DPF2の前方に位置する鑑賞者が登録情報記録部54に記録されている登録者の一人であると判断する。一方、類似度が所定値より小さい場合には(ステップS13、No)、CPU30は、鑑賞者が登録情報記録部54に記録されている登録者の誰にも該当しないと判断する。   Then, the CPU 30 obtains the similarity between the viewer's face image detected by the face image detection unit 38 and the registrant's face image recorded in the registration information recording unit 54 in the similarity determination unit 36. It is determined whether or not the obtained similarity is a predetermined value or more (step S13). Note that the predetermined value is set in advance, and if the similarity is equal to or higher than the predetermined value (step S13, Yes), the CPU 30 records the viewer located in front of the DPF 2 in the registered information recording unit 54. It is determined that you are one of the registered users. On the other hand, when the degree of similarity is smaller than the predetermined value (step S13, No), the CPU 30 determines that the viewer does not correspond to any registrant recorded in the registration information recording unit 54.

ステップS13において類似度が所定値以上であると判別された場合には(ステップS13、Yes)、CPU30は、登録情報の更新処理を実行する(ステップS14)。図6は、図5のステップS14における更新処理について説明するためのフローチャートである。   If it is determined in step S13 that the degree of similarity is equal to or greater than a predetermined value (step S13, Yes), the CPU 30 executes a registration information update process (step S14). FIG. 6 is a flowchart for explaining the update process in step S14 of FIG.

まず、CPU30は、登録情報記録部54に記録されている鑑賞者の登録情報の更新日時、及び時計部56から現在日時を取得し、取得した更新日時と現在日時とを比較することにより、更新日時から所定時間以上経過しているか否かを判別する(ステップS30)。なお、所定時間は予め設定されており、例えば3ヶ月等、登録者である子供の顔が成長することにより大幅に変化する前に顔画像を更新可能な期間に設定される。   First, the CPU 30 acquires the update date and time of the viewer's registration information recorded in the registration information recording unit 54 and the current date and time from the clock unit 56, and compares the acquired update date and time with the current date and time to update. It is determined whether or not a predetermined time has elapsed since the date and time (step S30). Note that the predetermined time is set in advance, and is set to a period in which the face image can be updated before the face of the child who is a registrant grows significantly, for example, three months.

ステップS30において更新日時から所定時間以上経過していると判別された場合には(ステップS30、Yes)、CPU30は、登録情報更新部34において、登録情報記録部54に記録されている鑑賞者の顔画像を、顔画像検出部38により検出された鑑賞者の顔画像に更新する(ステップS31)。そして、CPU30は、登録情報更新部34において、登録情報記録部54に記録されている鑑賞者の顔画像の更新日時を、時計部56から取得した現在日時に書き換えることにより、古い更新日時を新しい更新日時に更新する(ステップS32)。一方、ステップS30において更新日時から所定時間以上経過していないと判別された場合には(ステップS30、No)、CPU30は、鑑賞者の顔画像の更新を行う必要がないと判断し、図5のステップS14における更新処理を終了する。   When it is determined in step S30 that the predetermined time or more has passed since the update date and time (step S30, Yes), the CPU 30 in the registration information update unit 34, the viewer information recorded in the registration information recording unit 54 is displayed. The face image is updated to the viewer's face image detected by the face image detection unit 38 (step S31). Then, the CPU 30 rewrites the update date and time of the viewer's face image recorded in the registration information recording unit 54 to the current date and time acquired from the clock unit 56 in the registration information update unit 34, thereby replacing the old update date and time with the new one. Update to the update date and time (step S32). On the other hand, when it is determined in step S30 that the predetermined time or more has not elapsed since the update date (step S30, No), the CPU 30 determines that there is no need to update the viewer's face image, and FIG. The update process in step S14 is terminated.

一方、図5のステップS13において類似度が所定値より小さいと判別された場合には(ステップS13、No)、CPU30は、年齢推定部40において、顔画像検出部38により検出された鑑賞者の顔画像に基づいて鑑賞者の年齢を推定する(ステップS15)。そして、CPU30は、年齢推定部40において推定された鑑賞者の年齢が所定年齢以下であるか否かを判別する(ステップS16)。なお、所定年齢は、予め設定されており、上述したように例えば18歳以下等、所謂子供に分類される年齢に設定される。   On the other hand, when it is determined in step S13 of FIG. 5 that the similarity is smaller than the predetermined value (No in step S13), the CPU 30 detects the viewer detected by the face image detection unit 38 in the age estimation unit 40. The viewer's age is estimated based on the face image (step S15). And CPU30 discriminate | determines whether the viewer's age estimated in the age estimation part 40 is below a predetermined age (step S16). The predetermined age is set in advance, and is set to an age classified as a so-called child, for example, 18 years old or less as described above.

ステップS16において鑑賞者の年齢が所定年齢より上であると判別された場合(ステップS16、No)、またはステップS12において顔画像検出部38により顔画像を検出していないと判別された場合(ステップS12、No)には、CPU30は、関連情報記録部52から「大人用」に分類されている画像ファイルまたはフォルダ(図3参照)を読込み、読み込んだ画像ファイルまたはフォルダ内の画像ファイルに基づく画像(大人用画像)を、表示制御部58を介してLCDパネル6に再生表示する(ステップS17)。このとき、ユーザーの再生設定に従い、1つの画像ファイルに基づく1枚の画像の表示、またはフォルダ内の複数の画像ファイルに基づく複数の画像のスライドショー形式での表示を行う。   When it is determined in step S16 that the age of the viewer is higher than the predetermined age (No in step S16), or when it is determined in step S12 that the face image detection unit 38 has not detected a face image (step S16). In S12, No), the CPU 30 reads the image file or folder (see FIG. 3) classified as “adult” from the related information recording unit 52, and the image based on the read image file or the image file in the folder. The (adult image) is reproduced and displayed on the LCD panel 6 via the display control unit 58 (step S17). At this time, one image based on one image file is displayed or a plurality of images based on a plurality of image files in a folder are displayed in a slide show format according to the user's playback settings.

一方、ステップS16において鑑賞者の年齢が所定年齢以下であると判別された場合(ステップS16、Yes)、またはステップS14において更新処理を終えた後、CPU30は、泣き声判定部42において、マイク8から入力される音声を取得し、取得した音声に基づいて泣き声判定を行い、判定結果に基づいて鑑賞者が泣いているか否かを判別する(ステップS18)。ステップS18において鑑賞者が泣いていると判別された場合には(ステップS18、Yes)、CPU30は、関連情報記録部52から「泣く子供用」に分類されている画像ファイルまたはフォルダ(図3参照)を読込み、読み込んだ画像ファイルまたはフォルダ内の画像ファイルに基づく画像(泣く子供用画像)を、表示制御部58を介してLCDパネル6に再生表示する(ステップS19)。このとき、ステップS17の処理と同様に、ユーザーの再生設定に従い、1枚の画像の表示またはスライドショー形式での複数の画像の表示を行う。   On the other hand, when it is determined in step S16 that the viewer's age is equal to or lower than the predetermined age (step S16, Yes), or after the update process is completed in step S14, the CPU 30 causes the crying determination unit 42 to start from the microphone 8. The input voice is acquired, crying is determined based on the acquired voice, and it is determined whether the viewer is crying based on the determination result (step S18). If it is determined in step S18 that the viewer is crying (step S18, Yes), the CPU 30 sorts the image file or folder classified as “for crying children” from the related information recording unit 52 (see FIG. 3). ), And an image based on the read image file or the image file in the folder (a crying child image) is reproduced and displayed on the LCD panel 6 via the display control unit 58 (step S19). At this time, similarly to the processing in step S17, one image is displayed or a plurality of images are displayed in a slide show format according to the user's reproduction setting.

一方、ステップS18において鑑賞者が泣いていないと判別された場合には(ステップS18、No)、CPU30は、関連情報記録部52から「子供用」に分類されている画像ファイルまたはフォルダ(図3参照)を読込み、読み込んだ画像ファイルまたはフォルダ内の画像ファイルに基づく画像(子供用画像)を、表示制御部58を介してLCDパネル6に再生表示する(ステップS20)。このとき、ステップS17及びS19の処理と同様に、ユーザーの再生設定に従い、1枚の画像の表示またはスライドショー形式での複数の画像の表示を行う。   On the other hand, if it is determined in step S18 that the viewer is not crying (No in step S18), the CPU 30 determines that the image file or folder classified as “for children” from the related information recording unit 52 (FIG. 3). Reference) is read, and an image (child image) based on the read image file or the image file in the folder is reproduced and displayed on the LCD panel 6 via the display control unit 58 (step S20). At this time, similarly to the processing in steps S17 and S19, one image is displayed or a plurality of images are displayed in a slide show format according to the user's reproduction setting.

次に、CPU30は、ユーザーにより電源スイッチ14が押下されることにより、電力供給制御部32においてDPF2の電源をオフしたか否かを判別する(ステップS21)。ステップS21においてDPF2の電源をオフしていない場合には(ステップS21、No)、CPU30は、ステップS11の処理に戻り、ステップS21においてDPF2の電源をオフしたと判別するまで(ステップS21、Yes)、ステップS11〜S21の処理を繰り返す。   Next, the CPU 30 determines whether or not the power supply control unit 32 has turned off the power of the DPF 2 when the power switch 14 is pressed by the user (step S21). When the power of the DPF 2 is not turned off in step S21 (step S21, No), the CPU 30 returns to the process of step S11 until it is determined that the power of the DPF 2 is turned off in step S21 (step S21, Yes). , Steps S11 to S21 are repeated.

なお、図5のステップS18において鑑賞者が泣いていると判別された場合において(ステップS18、Yes)、鑑賞者が泣き続けている時間、即ち鑑賞者が泣き始めてから泣き終わるまでの時間を計測し、計測結果に基づいてLCDパネル6による画像の表示を制御することもできる。以下、図7に示すフローチャートを参照して、図5のステップS18において鑑賞者が泣いていると判別され、ステップS19において泣く子供用画像を表示した後、且つステップS21においてDPF2の電源がオフされたか否かの判別の前に実行される処理について説明する。   When it is determined in step S18 in FIG. 5 that the viewer is crying (step S18, Yes), the time during which the viewer keeps crying, that is, the time from when the viewer starts to cry until the crying ends is measured. In addition, it is possible to control display of an image on the LCD panel 6 based on the measurement result. Hereinafter, referring to the flowchart shown in FIG. 7, it is determined that the viewer is crying in step S18 of FIG. 5, and after displaying the image for children crying in step S19, the power of the DPF 2 is turned off in step S21. A process executed before the determination of whether or not has been performed will be described.

まず、CPU30は、鑑賞者が泣き始めてから泣き終わるまでの時間の計測を開始する(ステップS40)。具体的には、図5のステップS18において鑑賞者が泣いていると判別された際に、時計部56から現在日時を取得し、取得した日時を図示しないバッファメモリ等に一時的に記憶させる。そして、CPU30は、再度、泣き声判定部42において、マイク8から入力される音声を取得し、取得した音声に基づいて鑑賞者がまだ泣いているか否かを判別する(ステップS41)。ステップS41において鑑賞者がまだ泣いていると判別された場合には(ステップS41、Yes)、CPU30は、時計部56から現在日時を取得し、取得した現在日時に基づいて、鑑賞者が泣き始めた時間(バッファメモリ等に一時的に記憶されている日時)から所定時間経過したか否かを判別する(ステップS42)。なお、所定時間は予め設定されており、例えば5分等、泣いている鑑賞者がLCDパネル6に表示される泣く子供用画像を鑑賞しても泣き止まないと判別できる長さに設定される。   First, the CPU 30 starts measuring the time from when the viewer starts crying until ending the crying (step S40). Specifically, when it is determined in step S18 in FIG. 5 that the viewer is crying, the current date and time are acquired from the clock unit 56, and the acquired date and time are temporarily stored in a buffer memory or the like (not shown). Then, the CPU 30 again acquires the voice input from the microphone 8 in the cry determination unit 42, and determines whether or not the viewer is still crying based on the acquired voice (step S41). When it is determined in step S41 that the viewer is still crying (step S41, Yes), the CPU 30 acquires the current date and time from the clock unit 56, and the viewer starts crying based on the acquired current date and time. It is determined whether or not a predetermined time has elapsed from the specified time (date and time temporarily stored in the buffer memory or the like) (step S42). The predetermined time is set in advance, for example, 5 minutes, such as 5 minutes, so that the crying viewer can discriminate that he / she will not stop crying even if he / she views the crying child image displayed on the LCD panel 6. .

ステップS42において所定時間経過していないと判別された場合には(ステップS42、No)、CPU30は、ステップS41の処理に戻る。一方、ステップS42において所定時間経過したと判別された場合には(ステップS42、Yes)、CPU30は、鑑賞者がLCDパネル6に表示される泣く子供用画像を鑑賞しても泣き止まないと判断し、時間の計測を終了する(ステップS43)。具体的には、バッファメモリ等に一時的に記憶されている日時を削除する。そして、CPU30は、電力供給制御部32において、DPF2への電力供給を停止、即ちDPF2の電源を自動的(強制的)にオフする(ステップS44)。また、ステップS41において鑑賞者が泣いていない、即ち泣き止んだと判別された場合には(ステップS41、No)、CPU30は、鑑賞者がLCDパネル6に表示される泣く子供用画像を鑑賞したことにより泣き止んだと判断し、鑑賞者が泣き始めたから泣き終わるまでの時間の計測を終了する(ステップS45)。   If it is determined in step S42 that the predetermined time has not elapsed (step S42, No), the CPU 30 returns to the process of step S41. On the other hand, when it is determined in step S42 that the predetermined time has elapsed (step S42, Yes), the CPU 30 determines that the viewer does not stop crying even if the viewer views the crying child image displayed on the LCD panel 6. Then, the time measurement is finished (step S43). Specifically, the date and time temporarily stored in the buffer memory or the like is deleted. Then, the CPU 30 stops the power supply to the DPF 2 in the power supply control unit 32, that is, automatically (forcibly) turns off the power of the DPF 2 (step S44). If it is determined in step S41 that the viewer is not crying, that is, if the viewer stops crying (step S41, No), the CPU 30 has viewed the child image that the viewer displays on the LCD panel 6. Thus, it is determined that the crying has stopped, and the measurement of the time from when the viewer starts crying until the crying ends is finished (step S45).

なお、図7に示す処理においては、鑑賞者が泣き始めてから泣き終わるまでの時間が所定時間以上の場合にDPF2の電源を自動的にオフしているが、例えば鑑賞者が3歳以下等、分別のない年齢である場合にDPF2の電源を自動的にオフすることもできる。即ち、鑑賞者が登録情報記録部54に記録されている登録者の一人である場合には、CPU30は、登録情報記録部54に記録されている鑑賞者の年齢から3歳以下であるか否かを判別する。また、鑑賞者が登録情報記録部54に記録されていない場合には、CPU30は、年齢推定部40において推定された鑑賞者の年齢から3歳以下であるか否かを判別する。そして、3歳以下であると判別された場合には、CPU30は、鑑賞者が分別のない年齢であり、DPF2を倒す等して壊すおそれがあると判断し、鑑賞者の目に付かないようにするために、電力供給制御部32においてDPF2への電力供給を停止する。   In the process shown in FIG. 7, the power of the DPF 2 is automatically turned off when the time from when the viewer starts to cry until the end of crying is a predetermined time or longer. It is also possible to automatically turn off the power of the DPF 2 when the age is unidentified. That is, when the viewer is one of the registrants recorded in the registration information recording unit 54, the CPU 30 determines whether the viewer is three years old or less from the age of the viewer recorded in the registration information recording unit 54. Is determined. When the viewer is not recorded in the registered information recording unit 54, the CPU 30 determines whether or not the viewer is under 3 years old from the age of the viewer estimated by the age estimating unit 40. If it is determined that the child is under 3 years old, the CPU 30 determines that the viewer is of an unidentified age and may destroy the DPF 2 by defeating it so that the viewer cannot see it. Therefore, the power supply control unit 32 stops the power supply to the DPF 2.

次に、図8に示すフローチャートを参照して、図5のステップS18において鑑賞者が泣いていると判別され、ステップS19において泣く子供用画像を表示した後、且つステップS21においてDPF2の電源がオフされたか否かの判別の前に実行される他の処理について説明する。なお、ステップS50〜S53、S55の処理は、図7に示すステップS40〜S43、S45の処理と同一のため、説明を省略する。   Next, referring to the flowchart shown in FIG. 8, it is determined in step S18 in FIG. 5 that the viewer is crying, and after displaying the crying child image in step S19, the DPF 2 is turned off in step S21. Another process executed before the determination as to whether or not it has been performed will be described. In addition, since the process of step S50-S53, S55 is the same as the process of step S40-S43, S45 shown in FIG. 7, description is abbreviate | omitted.

CPU30は、ステップS53において時間の計測を終了した後、鑑賞者がLCDパネル6に表示されている泣く子供用画像を鑑賞しても泣き止まないと判断し、他の異なる画像をLCDパネル6に表示する(ステップS54)。具体的には、「泣く子供用」に分類されている他の画像ファイルまたは他のフォルダを読込み、読み込んだ他の画像ファイルまたは他のフォルダ内の画像ファイルに基づく画像(泣く子供用画像)を、表示制御部58を介してLCDパネル6に再生表示する。   After finishing the time measurement in step S53, the CPU 30 determines that the viewer does not stop crying even if he / she views the crying child's image displayed on the LCD panel 6, and displays another different image on the LCD panel 6. It is displayed (step S54). Specifically, other image files or other folders classified as “for crying children” are read, and images based on the read other image files or image files in other folders (images for crying children) Then, it is reproduced and displayed on the LCD panel 6 via the display control unit 58.

また、ステップS55において時間の計測を終了した後、CPU30は、鑑賞者が泣き始めてから泣き終わるまでの間にLCDパネル6に表示された表示画像を、所定時間経過する前に鑑賞者を泣き止ませることができた画像であると評価する(ステップS56)。具体的には、表示画像の画像ファイルに対して、所定時間経過する前に鑑賞者を泣き止ませることができた画像であることを示す1カウントを追加する。   In addition, after the time measurement is ended in step S55, the CPU 30 stops the viewer from crying the display image displayed on the LCD panel 6 from when the viewer starts to cry until the crying ends. It is evaluated that the image can be transmitted (step S56). Specifically, 1 count is added to the image file of the display image, which indicates that the viewer can cry before the predetermined time has elapsed.

次に、CPU30は、ステップS56における評価結果に基づいて、LCDパネル6に表示される表示画像に関するランキング情報を生成し、生成されたランキング情報とLCDパネル6に表示される表示画像とを関連付けて管理する(ステップS57)。具体的には、CPU30は、ステップS56において表示画像に追加された1カウントを、その表示画像に対して過去に追加されたカウント数に加え(即ち、過去にカウント数+1カウント)、例えば図9に示すように、関連情報記録部52に記録されるテーブル内の「泣く子供用」に分類されている表示画像の画像ファイルに加えたカウント数を付加することによりランキング情報を生成する。   Next, the CPU 30 generates ranking information related to the display image displayed on the LCD panel 6 based on the evaluation result in step S56, and associates the generated ranking information with the display image displayed on the LCD panel 6. Manage (step S57). Specifically, the CPU 30 adds 1 count added to the display image in step S56 to the count added in the past with respect to the display image (that is, count + 1 count in the past), for example, FIG. As shown in FIG. 5, the ranking information is generated by adding the count number added to the image file of the display image classified as “for crying children” in the table recorded in the related information recording unit 52.

即ち、図9に示す画像ファイルα.bmpに付加されているcount:15という情報は、画像ファイルα.bmpが所定時間経過する前に鑑賞者を泣き止ませることができた画像ファイルであると15回評価されたことを示している。同様に、画像ファイルβ.bmpは0回、画像ファイルγ.bmpは7回、フォルダαは14回、フォルダβ.bmpは1回、フォルダγは8回評価されたことを示しており、CPU30は、これら画像ファイルやフォルダに付加されている情報に基づいてランキング情報を生成する。即ち、図9では、CPU30は、1位:画像ファイルα.bmp、2位:画像ファイルγ.bmp、3位:画像ファイルβ.bmpというランキング情報を生成する。同様に、1位:フォルダα、2位:フォルダγ.bmp、3位:フォルダβというランキング情報を生成する。そして、CPU30は、生成したランキング情報を、「泣く子供用」に分類されているファイルやフォルダと関連付けて管理する。   That is, the image file α. The information “count: 15” added to bmp is the image file α. This shows that bmp was evaluated 15 times as an image file that could stop the viewer from crying before the predetermined time passed. Similarly, the image file β. bmp is 0 times, the image file γ. bmp 7 times, folder α 14 times, folder β. bmp indicates that the evaluation is performed once and the folder γ is evaluated eight times. The CPU 30 generates ranking information based on information added to the image file and the folder. That is, in FIG. 9, the CPU 30 is ranked first: image file α. bmp, second place: image file γ. bmp, third place: image file β. Ranking information called bmp is generated. Similarly, 1st place: folder α, 2nd place: folder γ. bmp, 3rd place: ranking information of folder β is generated. Then, the CPU 30 manages the generated ranking information in association with files and folders classified as “for crying children”.

なお、図9では、フォルダを評価し、フォルダに対してカウント追加しているが、フォルダ内の画像ファイルを評価し、フォルダ内の画像ファイルに対してカウント追加するようにしてもよい。また、フォルダ及びフォルダ内の画像ファイルを評価し、フォルダ及びフォルダ内の画像ファイルに対してカウント追加するようにしてもよい。   In FIG. 9, the folder is evaluated and the count is added to the folder. However, the image file in the folder may be evaluated and the count added to the image file in the folder. Further, the folder and the image file in the folder may be evaluated, and the count may be added to the folder and the image file in the folder.

このように、ランキング情報が生成され、管理されると、図5に示すステップS19において泣く子供用画像をLCDパネル6に表示する際、CPU30は、管理されているランキング情報に基づいて、LCDパネル6に表示する画像を制御する。具体的には、まず、CPU30は、1位にランキングされている画像ファイルまたはフォルダ(図9では、画像ファイルα.bmpまたはフォルダα)を読込み、読み込んだ画像ファイルまたはフォルダ内の画像ファイルに基づく画像をLCDパネル6に表示する。そして、図8に示すステップS53において時間の計測を終了した後、鑑賞者が1位にランキングされている画像を鑑賞しても泣き止まないと判断し、ステップS54において他の泣く子供用画像をLCDパネル6に表示する際、CPU30は、2位にランキングされている画像ファイルまたはフォルダ(図9では、画像ファイルγ.bmpまたはフォルダγ)を読込み、読み込んだ画像ファイルまたはフォルダ内の画像ファイルに基づく画像をLCDパネル6に表示する。   When the ranking information is generated and managed as described above, the CPU 30 displays the crying child image in step S19 shown in FIG. 5 on the LCD panel 6 based on the managed ranking information. 6 controls the image to be displayed. Specifically, first, the CPU 30 reads the image file or folder ranked first (image file α.bmp or folder α in FIG. 9), and is based on the read image file or image file in the folder. An image is displayed on the LCD panel 6. Then, after the time measurement is completed in step S53 shown in FIG. 8, it is determined that the viewer does not stop crying even if the viewer ranks in the first ranked image. In step S54, another crying child image is determined. When displaying on the LCD panel 6, the CPU 30 reads the image file or folder ranked second (image file γ.bmp or folder γ in FIG. 9), and converts the image file or folder into the read image file or folder. A base image is displayed on the LCD panel 6.

なお、上述の実施の形態では、内部メモリ46内の画像記録部48に記録されている画像データを、「子供用」「泣く子供用」「大人用」に分類して内部メモリ46内の関連情報記録部52に記録しているが、メモリカードスロット16に挿入されるメモリカード(図示せず)やUBSポート20に接続されている記録媒体(図示せず)等に記録されている画像データを、「子供用」「泣く子供用」「大人用」に分類して関連情報記録部52に記録してもよい。また、メモリカードや他の記録媒体等内に関連情報記録部52と同様の関連情報記録部を設けてもよい。また、図2に示すサーバ64に格納されている画像データを、インターネット62及びネットワーク端子22を介して、ネットワーク接続部44においてダウンロードし、ダウンロードした画像データを、「子供用」「泣く子供用」「大人用」に分類して関連情報記録部52にテーブル形式で記録してもよい。   In the above-described embodiment, the image data recorded in the image recording unit 48 in the internal memory 46 is classified into “for children”, “for crying children”, and “for adults” and related in the internal memory 46. Image data recorded in the information recording unit 52 but recorded on a memory card (not shown) inserted into the memory card slot 16 or a recording medium (not shown) connected to the UBS port 20 May be classified into “for children”, “for crying children”, and “for adults” and recorded in the related information recording unit 52. Further, a related information recording unit similar to the related information recording unit 52 may be provided in a memory card or other recording medium. Further, the image data stored in the server 64 shown in FIG. 2 is downloaded at the network connection unit 44 via the Internet 62 and the network terminal 22, and the downloaded image data is “for children” and “for children who cry”. The information may be classified into “for adults” and recorded in the related information recording unit 52 in a table format.

また、サーバ64内に関連情報記録部52と同様の関連情報記録部を設け、CPU30は、ネットワーク接続部44を介してランキング情報を送信し、サーバ64によりDPF2等から送信されるランキング情報に基づき管理されるランキングに基づいてサーバ64から送信される画像データを受信し、受信した画像データの画像をLCDパネル6に表示することもできる。以下、図10に示すフローチャートを参照して、図5のステップS18において鑑賞者が泣いていると判別され、ステップS19において泣く子供用画像(サーバ64から送信される画像データの画像)を表示した後、且つステップS21においてDPF2の電源がオフされたか否かの判別の前に実行される他の処理について説明する。なお、ステップS60〜S63、S65、S66の処理は、図8に示すステップS50〜S53、S55、S56の処理と同一のため、説明を省略する。   Further, a related information recording unit similar to the related information recording unit 52 is provided in the server 64, and the CPU 30 transmits ranking information via the network connection unit 44, and based on the ranking information transmitted from the DPF 2 or the like by the server 64. It is also possible to receive the image data transmitted from the server 64 based on the managed ranking and display the image of the received image data on the LCD panel 6. Hereinafter, with reference to the flowchart shown in FIG. 10, it is determined that the viewer is crying in step S <b> 18 in FIG. 5, and the child image (image data image transmitted from the server 64) is displayed in step S <b> 19. Other processes that are executed later and before determining whether or not the power of the DPF 2 has been turned off in step S21 will be described. Note that the processing in steps S60 to S63, S65, and S66 is the same as the processing in steps S50 to S53, S55, and S56 shown in FIG.

CPU30は、ステップS63において時間の計測を終了した後、鑑賞者がLCDパネル6に表示されている泣く子供用画像(サーバ64から送信される画像データの画像)を鑑賞しても泣き止まないと判断し、サーバ64に対して他の画像データを送信するよう指示する。そして、CPU30は、ネットワーク接続部44において、サーバ64から送信される他の画像データを受信し、受信した他の画像データの画像をLCDパネル6に表示する(ステップS64)。   The CPU 30 does not stop crying even if the viewer appreciates the crying image for the child (image data transmitted from the server 64) displayed on the LCD panel 6 after completing the time measurement in step S63. Determine and instruct the server 64 to transmit other image data. Then, the CPU 30 receives other image data transmitted from the server 64 at the network connection unit 44, and displays an image of the received other image data on the LCD panel 6 (step S64).

具体的には、「泣く子供用」に分類されている画像ファイルに対応する画像データを、サーバ64からダウンロードし、ダウンロードした画像データの画像(泣く子供用画像)を、表示制御部58を介してLCDパネル6に再生表示する。または、「泣く子供用」に分類されている複数の画像ファイルに対応する複数の画像データを予めダウンロードしておき、図示しないバッファメモリ等に一時的に記憶させておき、バッファメモリから画像データを順次読み込むようにしてもよい。   Specifically, image data corresponding to an image file classified as “for a crying child” is downloaded from the server 64, and an image of the downloaded image data (an image for a crying child) is transmitted via the display control unit 58. Is displayed on the LCD panel 6. Alternatively, a plurality of image data corresponding to a plurality of image files classified as “for crying children” are downloaded in advance, temporarily stored in a buffer memory (not shown), and the image data is read from the buffer memory. You may make it read sequentially.

また、CPU30は、ステップS66における評価結果に基づいて、LCDパネル6に表示される表示画像に関するランキング情報を生成し、生成されたランキング情報をサーバ64に対して送信する(ステップS67)。サーバ64は、DPF2や他の再生装置から送信されたランキング情報を、サーバ64に格納されている画像データと関連付けて管理する。なお、サーバ64においてDPF2や他の再生装置から送信されたすべてのランキング情報に基づいたランキングを管理してもよく、特定の地域から送信されたランキング情報に基づいた特定の地域のランキング、特定のグループから送信されたランキング情報に基づいた特定のグループのランキング等を管理する構成にしてもよい。   Further, the CPU 30 generates ranking information related to the display image displayed on the LCD panel 6 based on the evaluation result in step S66, and transmits the generated ranking information to the server 64 (step S67). The server 64 manages the ranking information transmitted from the DPF 2 and other playback devices in association with the image data stored in the server 64. Note that the server 64 may manage rankings based on all ranking information transmitted from the DPF 2 and other playback devices, rankings of specific regions based on ranking information transmitted from specific regions, and specific rankings. It may be configured to manage the ranking of a specific group based on the ranking information transmitted from the group.

このように、DPF2においてランキング情報が生成され、サーバ64においてランキングが管理されると、図5に示すステップS19において泣く子供用画像をLCDパネル6に表示する際、サーバ64は、管理しているランキングに基づいてDPF2に対して画像データを送信し、CPU30は、サーバ64から受信した画像データの画像をLCDパネル6に表示する。具体的には、まず、サーバ64は、1位にランキングされている画像データをDPF2に対して送信し、DPF2(CPU30)は、サーバ64から送信された画像データの画像をLCDパネル6に表示する。そして、図10に示すステップS63において時間の計測を終了した後、鑑賞者が1位にランキングされている画像を鑑賞しても泣き止まないと判断し、ステップS64において他の泣く子供用画像をLCDパネル6に表示する際、DPF2(CPU30)は、他の画像データを送信するようサーバ64に対して指示し、サーバ64は、2位にランキングされている画像データをDPF2に対して送信し、DPF2(CPU30)は、サーバから送信された画像データの画像をLCDパネル6に表示する。   As described above, when ranking information is generated in the DPF 2 and ranking is managed in the server 64, the server 64 manages the image for crying on the LCD panel 6 in step S19 shown in FIG. Based on the ranking, the image data is transmitted to the DPF 2, and the CPU 30 displays the image of the image data received from the server 64 on the LCD panel 6. Specifically, first, the server 64 transmits image data ranked first to the DPF 2, and the DPF 2 (CPU 30) displays the image of the image data transmitted from the server 64 on the LCD panel 6. To do. Then, after the time measurement is completed in step S63 shown in FIG. 10, it is determined that the viewer does not stop crying even if the viewer ranks in the first ranked image, and in step S64, another crying child image is displayed. When displaying on the LCD panel 6, the DPF 2 (CPU 30) instructs the server 64 to transmit other image data, and the server 64 transmits the image data ranked second to the DPF 2. , DPF2 (CPU 30) displays an image of the image data transmitted from the server on the LCD panel 6.

なお、図10に示す処理においては、DPF2がランキング情報を生成し、サーバ64に対してランキング情報を送信しているが、サーバ64がランキング情報を生成する構成にしてもよい。この場合には、DPF2(CPU30)は、LCDパネル6に表示された表示画像に対する評価結果(カウント結果)をサーバ64に対して送信し、サーバ64は、DPF2から送信された評価結果に基づいてランキング情報を生成し、生成したランキング情報に基づくランキングの管理を行う。また、図10に示す処理においては、DPF2がLCDパネル6に表示された表示画像に対する評価(カウント追加)を行っているが、サーバ64がLCDパネル6に表示された表示画像に対する評価(カウント追加)を行う構成にしてもよい。この場合には、DPF2(CPU30)は、鑑賞者が泣き始めてから泣き終わるまでの時間の計測結果をサーバ64に対して送信し、サーバ64は、DPF2から送信された時間計測結果に基づいて表示画像に対する評価(カウント追加)を行い、評価結果に基づいてランキング情報を生成し、生成したランキング情報に基づくランキングの管理を行う。   In the process shown in FIG. 10, the DPF 2 generates ranking information and transmits the ranking information to the server 64. However, the server 64 may generate the ranking information. In this case, the DPF 2 (CPU 30) transmits the evaluation result (count result) for the display image displayed on the LCD panel 6 to the server 64, and the server 64 is based on the evaluation result transmitted from the DPF 2. Ranking information is generated, and ranking management based on the generated ranking information is performed. In the process shown in FIG. 10, the DPF 2 evaluates the display image displayed on the LCD panel 6 (count addition), but the server 64 evaluates the display image displayed on the LCD panel 6 (add count). ). In this case, the DPF 2 (CPU 30) transmits the measurement result of the time from when the viewer starts crying to the end of crying to the server 64, and the server 64 displays based on the time measurement result transmitted from the DPF 2. Evaluation (addition of count) is performed on the image, ranking information is generated based on the evaluation result, and ranking is managed based on the generated ranking information.

この実施の形態に係るDPF2によれば、鑑賞者の年齢や鑑賞者が泣いているか否かに応じて、LCDパネル6に表示する画像を表示制御することができる。即ち、鑑賞者が子供である場合には、子供の好む画像をLCDパネル6に表示することができる。また、鑑賞者が子供であると判別され、且つ泣いていると判別された場合には、泣いている子供を泣き止ませるのに効果的な画像をLCDパネル6に表示することができる。また、子供の鑑賞者の顔画像等を登録し、定期的に顔画像の自動更新を行うため、成長することにより顔が変化した場合においても鑑賞者と登録者との類似度判定を正確に実行することができる。   According to the DPF 2 according to this embodiment, it is possible to control display of an image displayed on the LCD panel 6 according to the age of the viewer and whether the viewer is crying. That is, when the viewer is a child, an image preferred by the child can be displayed on the LCD panel 6. In addition, when it is determined that the viewer is a child and it is determined that the viewer is crying, an image effective for stopping the crying child can be displayed on the LCD panel 6. In addition, since the face image of a child viewer is registered and the face image is automatically updated regularly, even when the face changes due to growth, the similarity determination between the viewer and the registrant can be accurately performed. Can be executed.

なお、上述の実施の形態においては、鑑賞者が泣き始めてから泣き終わるまでの時間の長短にかかわらず、LCDパネル6に表示された表示画像を同様に評価しているが、鑑賞者が泣き始めてから泣き終わるまでの時間の長さに基づいて、表示画像の評価度合いを変化させてもよい。例えば、30秒で鑑賞者が泣き止んだ画像については、3分で鑑賞者が泣き止んだ画像より高く評価する。具体的には、30秒で鑑賞者が泣き止んだ画像の画像ファイルに対して3カウント、1分で鑑賞者が泣き止んだ画像の画像ファイルに対して2カウント、3分で鑑賞者が泣き止んだ画像の画像ファイルに対して1カウント追加する。したがって、生成されるランキング情報に基づくランキングについても、短時間で鑑賞者が泣き止んだ画像の画像ファイルの順位が高くなる。   In the above-described embodiment, the display image displayed on the LCD panel 6 is similarly evaluated regardless of the length of time from when the viewer starts crying to when the crying ends, but when the viewer begins to cry. The degree of evaluation of the display image may be changed based on the length of time from when the crying is completed to when the crying is completed. For example, an image in which the viewer stops crying in 30 seconds is evaluated higher than an image in which the viewer stops crying in 3 minutes. Specifically, 3 counts for an image file of an image where the viewer stopped crying in 30 seconds, 2 counts for an image file of an image where the viewer stopped crying in 1 minute, and the viewer cried in 3 minutes One count is added to the image file of the stopped image. Accordingly, the ranking based on the generated ranking information also increases the ranking of the image file of the image that the viewer stopped crying in a short time.

また、上述の実施の形態においては、内部メモリ46に記録されている画像データを表示する場合と、サーバ64からダウンロードされる画像データを表示する場合とについて説明したが、これらを組み合わせた構成にすることもできる。具体的には、内部メモリ46に記録されているランキング上位の画像データの画像をすべて表示した後に、サーバ64からダウンロードするランキング上位の画像データの画像を表示する。または、サーバ64からダウンロードするランキング上位の画像データの画像をすべて表示した後に、内部メモリ46に記録されているランキング上位の画像データの画像を表示する。   In the above-described embodiment, the case where the image data recorded in the internal memory 46 is displayed and the case where the image data downloaded from the server 64 is displayed have been described. You can also Specifically, after displaying all the images of the higher ranking image data recorded in the internal memory 46, the images of the higher ranking image data downloaded from the server 64 are displayed. Alternatively, after all the images of the top ranking image data downloaded from the server 64 are displayed, the images of the top ranking image data recorded in the internal memory 46 are displayed.

また、上述の実施の形態においては、鑑賞者が誰であってもLCDパネル6に表示される画像は同じであるが、例えば登録情報記録部54に記録される登録情報に、登録者のお気に入りの画像ファイルを含め、鑑賞者が登録者の一人であると判別された際に、その鑑賞者のお気に入りの画像ファイルを読込み、読み込んだ画像ファイルの画像をLCDパネル6に表示する構成にすることもできる。例えば、登録者の母の画像等を登録者の登録情報に含め、鑑賞者が登録者であると判別された際に、その鑑賞者の母の画像を表示することができる。また、この場合において、登録者のお気に入りの画像ファイルを評価し、評価結果に基づいて登録者個人のランキング情報を生成し、登録者個人のランキング情報とLCDパネル6に表示された画像データとを関連付けて登録者個人のランキングを管理してもよい。この場合には、鑑賞者(登録者)が泣いていると判別されたとき、まず、登録者の母の画像等、登録者が泣き止む確率が高い画像をLCDパネル6に表示する。そして、登録者個人のお気に入りの画像、即ち内部メモリ46に記録されている画像データの画像をすべて表示しても登録者が泣き止まないとき、サーバ64からダウンロードするランキング順位の高い画像をLCDパネル6に表示する。   In the above-described embodiment, the image displayed on the LCD panel 6 is the same regardless of who the viewer is, but for example, the registration information recorded in the registration information recording unit 54 includes the registrant's favorite. When the viewer is determined to be one of the registrants including the image file, the viewer's favorite image file is read and the image of the read image file is displayed on the LCD panel 6. You can also. For example, an image of the mother of the registrant can be included in the registration information of the registrant, and when the viewer is determined to be a registrant, the image of the mother of the viewer can be displayed. In this case, the registrant's favorite image file is evaluated, and registrant's personal ranking information is generated based on the evaluation result. The registrant's personal ranking information and the image data displayed on the LCD panel 6 are obtained. The ranking of individual registrants may be managed in association. In this case, when it is determined that the viewer (registrant) is crying, first, an image having a high probability that the registrant stops crying, such as an image of the registrant's mother, is displayed on the LCD panel 6. Then, when the registrant does not stop crying even after displaying all the favorite images of the registrant, that is, the image data recorded in the internal memory 46, an image with a high ranking order downloaded from the server 64 is displayed on the LCD panel. 6 is displayed.

また、登録者個人のお気に入りの画像、ランキング情報及びランキング管理結果等を設ける場合において、登録者の成長や流行によりお気に入りの画像やランキングが変化するであろうことから、例えば1年毎等、所定期間毎のランキング情報を生成し、所定期間毎のランキングを管理するようにしてもよい。また、これら所定期間毎のランキング情報や、所定期間毎のランキング管理結果を内部メモリ46等に記録しておいてもよい。この場合には、後にこれら過去のランキング情報やランキング管理結果を閲覧した際に、登録者の幼少時のお気に入りの画像を再認識することができる等、登録者や登録者の家族にとっての思い出にすることができる。   In addition, when providing registrant's personal favorite images, ranking information, ranking management results, etc., the registrant's growth and fashion will change the favorite images and rankings. Ranking information for each period may be generated and the ranking for each predetermined period may be managed. The ranking information for each predetermined period and the ranking management result for each predetermined period may be recorded in the internal memory 46 or the like. In this case, when browsing these past ranking information and ranking management results later, it is possible to re-recognize the registrant's childhood favorite images, etc. can do.

また、上述の実施の形態においては、関連情報記録部52においてランキング情報を記録し、ランキング情報と画像記録部48に記録されている画像データとを関連付けて管理しているが、画像記録部48に記録されている画像データにランキング情報を所定の形式(例えば、Exif等)で付加し、管理する構成にしてもよい。   In the above-described embodiment, the related information recording unit 52 records ranking information and manages the ranking information and the image data recorded in the image recording unit 48 in association with each other. The ranking information may be added to the image data recorded in a predetermined format (for example, Exif) and managed.

また、上述の実施の形態においては、マイク8から入力される音声に基づいて鑑賞者が泣いているか否かを判別しているが、顔画像検出部38により検出される顔画像に基づいて鑑賞者が泣いているか否かを判別してもよい。例えば、周知の笑顔測定等に用いられる技術を用いて顔画像から鑑賞者が泣いているか否かを判別する。   In the above-described embodiment, it is determined whether or not the viewer is crying based on the sound input from the microphone 8, but the viewing is performed based on the face image detected by the face image detection unit 38. It may be determined whether or not the person is crying. For example, it is determined whether or not the viewer is crying from the face image by using a known technique for smile measurement or the like.

また、上述の実施の形態においては、CPU30が鑑賞者の年齢等に基づいてLCDパネル6による画像の表示を制御する構成を例に挙げて説明したが、CPU30が鑑賞者の年齢等に基づいてスピーカ12による音声や音楽の再生を制御する構成についても本発明を適用することができる。   Further, in the above-described embodiment, the configuration in which the CPU 30 controls the display of the image by the LCD panel 6 based on the viewer's age and the like has been described as an example, but the CPU 30 is based on the viewer's age and the like. The present invention can also be applied to a configuration for controlling playback of voice and music by the speaker 12.

また、上述の実施の形態においては、本発明の再生装置としてDPFを例に挙げて説明したが、他の再生装置においても本発明を適用することができる。   In the above-described embodiment, the DPF is described as an example of the reproducing apparatus of the present invention. However, the present invention can be applied to other reproducing apparatuses.

2…DPF(デジタルフォトフレーム)、6…LCDパネル、8…マイク、10…カメラ、12…スピーカ、14…電源スイッチ、16…操作キー、22…ネットワーク端子、30…CPU、32…電力供給制御部、34…登録情報更新部、36…類似度判定部、38…顔画像検出部、40…年齢推定部、42…泣き声判定部、44…ネットワーク接続部、46…内部メモリ、52…関連情報記録部、54…登録情報記録部、64…サーバ。   2 ... DPF (digital photo frame), 6 ... LCD panel, 8 ... microphone, 10 ... camera, 12 ... speaker, 14 ... power switch, 16 ... operation key, 22 ... network terminal, 30 ... CPU, 32 ... power supply control 34: Registration information update unit, 36: Similarity determination unit, 38 ... Face image detection unit, 40 ... Age estimation unit, 42 ... Crying determination unit, 44 ... Network connection unit, 46 ... Internal memory, 52 ... Related information Recording unit 54... Registration information recording unit 64.

Claims (12)

情報を再生する再生部と、
被写体を撮像し画像信号を出力する撮像部と、
前記撮像部から出力された前記画像信号に基づいて、人物の顔画像を検出する検出部と、
前記検出部により検出された前記人物の顔画像に基づいて、前記人物の年齢を推定する年齢推定部と、
前記年齢推定部により推定された前記年齢に基づいて、前記再生部による情報の再生を制御する再生制御部と、
を備えることを特徴とする再生装置。
A playback unit for playing back information;
An imaging unit for imaging a subject and outputting an image signal;
A detection unit for detecting a human face image based on the image signal output from the imaging unit;
An age estimating unit for estimating the age of the person based on the face image of the person detected by the detecting unit;
Based on the age estimated by the age estimation unit, a reproduction control unit that controls reproduction of information by the reproduction unit;
A playback apparatus comprising:
前記年齢推定部により推定された前記人物の年齢が第1所定年齢以下であるか否かを判定する第1判別部と、
前記第1所定年齢以下の人物が泣いているか否かを判別する第2判別部を備え、
前記再生制御部は、前記第2判別部による判別結果に基づいて、前記再生部による情報の再生を制御することを特徴とする請求項1記載の再生装置。
A first determination unit for determining whether the age of the person estimated by the age estimation unit is equal to or lower than a first predetermined age;
A second determination unit for determining whether or not a person under the first predetermined age is crying;
The reproduction apparatus according to claim 1, wherein the reproduction control unit controls reproduction of information by the reproduction unit based on a determination result by the second determination unit.
前記第2判別部による判別結果に基いて、前記人物が泣き始めてから泣き終わるまでの時間を計測する計測部と、
前記計測部による計測結果に基づいて、前記再生装置への電力供給を制御する電力供給制御部と、
を備えることを特徴とする請求項2記載の再生装置。
A measurement unit that measures the time from when the person starts to cry until the end of crying based on the determination result by the second determination unit;
A power supply control unit that controls power supply to the playback device based on a measurement result by the measurement unit;
The playback apparatus according to claim 2, further comprising:
前記電力供給制御部は、前記年齢推定部により前記人物の年齢が第2所定年齢以下であると推定された場合には、前記再生装置への電力供給を停止することを特徴とする請求項3記載の再生装置。   The power supply control unit, when the age estimation unit estimates that the age of the person is equal to or less than a second predetermined age, stops power supply to the playback device. The reproducing apparatus as described. 前記第2判別部による判別結果に基いて、前記人物が泣き始めてから泣き終わるまでの時間を計測する計測部と、
前記計測部による計測結果に基づいて、前記再生部により再生された情報を評価する評価部と、
前記評価部による評価結果に基いて、前記再生部により再生された情報に関するランキング情報を生成する生成部と、
前記生成部により生成された前記ランキング情報と前記再生部により再生された情報とを関連付けて管理する管理部と、を備え、
前記再生制御部は、前記管理部により管理されたランキング情報に基づいて、前記再生部による情報の再生を制御することを特徴とする請求項2記載の再生装置。
A measurement unit that measures the time from when the person starts to cry until the end of crying based on the determination result by the second determination unit;
An evaluation unit that evaluates information reproduced by the reproduction unit based on a measurement result by the measurement unit;
A generating unit that generates ranking information related to information reproduced by the reproducing unit, based on an evaluation result by the evaluating unit;
A management unit that associates and manages the ranking information generated by the generation unit and the information reproduced by the reproduction unit;
The playback apparatus according to claim 2, wherein the playback control unit controls playback of information by the playback unit based on ranking information managed by the management unit.
前記第2判別部による判別結果に基いて、前記人物が泣き始めてから泣き終わるまでの時間を計測する計測部と、
前記計測部による計測結果に基づいて、前記再生部により再生された情報を評価する評価部と、
前記評価部による評価結果に基いて、前記再生部により再生された情報に関するランキング情報を生成する生成部と、
前記生成部により生成された前記ランキング情報をサーバに対して送信する送信部と、
前記サーバにより管理されているランキングに基づいて前記サーバから送信される前記再生部に再生可能な情報を受信する受信部と、を備え、
前記再生制御部は、前記受信部により受信した情報を前記再生部に再生させることを特徴とする請求項2記載の再生装置。
A measurement unit that measures the time from when the person starts to cry until the end of crying based on the determination result by the second determination unit;
An evaluation unit that evaluates information reproduced by the reproduction unit based on a measurement result by the measurement unit;
A generating unit that generates ranking information related to information reproduced by the reproducing unit, based on an evaluation result by the evaluating unit;
A transmission unit that transmits the ranking information generated by the generation unit to a server;
A receiving unit that receives information reproducible to the reproducing unit transmitted from the server based on the ranking managed by the server;
The reproduction apparatus according to claim 2, wherein the reproduction control unit causes the reproduction unit to reproduce the information received by the reception unit.
前記第2判別部による判別結果に基いて、前記人物が泣き始めてから泣き終わるまでの時間を計測する計測部と、
前記計測部による計測結果に基づいて、前記再生部により再生された情報を評価する評価部と、
前記評価部による評価結果をサーバに対して送信する送信部と、
前記サーバにより前記評価結果に基づいて管理されているランキングに基づいて前記サーバから送信される前記再生部に再生可能な情報を受信する受信部と、を備え、
前記再生制御部は、前記受信部により受信した情報を前記再生部に再生させることを特徴とする請求項2記載の再生装置。
A measurement unit that measures the time from when the person starts to cry until the end of crying based on the determination result by the second determination unit;
An evaluation unit that evaluates information reproduced by the reproduction unit based on a measurement result by the measurement unit;
A transmission unit for transmitting an evaluation result by the evaluation unit to a server;
A receiving unit for receiving information reproducible to the reproducing unit transmitted from the server based on a ranking managed by the server based on the evaluation result;
The reproduction apparatus according to claim 2, wherein the reproduction control unit causes the reproduction unit to reproduce the information received by the reception unit.
前記第2判別部による判別結果に基いて、前記人物が泣き始めてから泣き終わるまでの時間を計測する計測部と、
前記計測部による計測結果をサーバに対して送信する送信部と、
前記サーバにより前記計測結果に基づいて管理されているランキングに基づいて前記サーバから送信される前記再生部に再生可能な情報を受信する受信部と、を備え、
前記再生制御部は、前記受信部により受信した情報を前記再生部に再生させることを特徴とする請求項2記載の再生装置。
A measurement unit that measures the time from when the person starts to cry until the end of crying based on the determination result by the second determination unit;
A transmission unit for transmitting a measurement result by the measurement unit to a server;
A receiving unit that receives information reproducible to the reproducing unit transmitted from the server based on a ranking managed by the server based on the measurement result;
The reproduction apparatus according to claim 2, wherein the reproduction control unit causes the reproduction unit to reproduce the information received by the reception unit.
前記ランキングの高さは、前記計測部により計測される前記時間の長さに基づいて、決定されることを特徴とする請求項6〜請求項8の何れか一項に記載の再生装置。   The playback apparatus according to claim 6, wherein the height of the ranking is determined based on the length of time measured by the measurement unit. 第1所定年齢以下の人物の顔画像を含む人物情報を記録媒体に記録させる記録制御部と、
前記検出部により検出された前記人物の顔画像と前記記録媒体に記録されている人物の顔画像との類似度を判定する類似度判定部と、
前記類似度判別部により判定された前記類似度が所定値以上か否かを判別する第3判別部と、
前記第3判別部により前記類似度が所定値以上であると判別された場合の前記記録媒体に記録されている前記顔画像を前記検出部により検出された前記顔画像に更新する更新部と、
を備えることを特徴とする請求項1〜請求項9の何れか一項に記載の再生装置。
A recording control unit for recording person information including a face image of a person under the first predetermined age on a recording medium;
A similarity determination unit that determines the similarity between the face image of the person detected by the detection unit and the face image of the person recorded on the recording medium;
A third determination unit that determines whether the similarity determined by the similarity determination unit is equal to or greater than a predetermined value;
An update unit that updates the face image recorded on the recording medium when the similarity is determined to be greater than or equal to a predetermined value by the third determination unit, to the face image detected by the detection unit;
The playback apparatus according to any one of claims 1 to 9, further comprising:
前記更新部により更新された更新日時を記録媒体に記録する更新日時記録制御部を備え、
前記更新部は、前記記録媒体に記録されている前記更新日時から所定時間以上経過しているとき、前記顔画像の更新を行うことを特徴とする請求項10記載の再生装置。
An update date and time recording control unit for recording the update date and time updated by the update unit on a recording medium;
The playback apparatus according to claim 10, wherein the update unit updates the face image when a predetermined time or more has elapsed from the update date and time recorded on the recording medium.
前記人物情報は、前記人物の前記ランキング情報及び前記人物の前記ランキング管理結果を含むことを特徴とする請求項8または請求項9記載の再生装置。   The playback apparatus according to claim 8 or 9, wherein the person information includes the ranking information of the person and the ranking management result of the person.
JP2010095798A 2010-04-19 2010-04-19 Reproducer Pending JP2011228878A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010095798A JP2011228878A (en) 2010-04-19 2010-04-19 Reproducer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010095798A JP2011228878A (en) 2010-04-19 2010-04-19 Reproducer

Publications (1)

Publication Number Publication Date
JP2011228878A true JP2011228878A (en) 2011-11-10

Family

ID=45043735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010095798A Pending JP2011228878A (en) 2010-04-19 2010-04-19 Reproducer

Country Status (1)

Country Link
JP (1) JP2011228878A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013187138A1 (en) * 2012-06-15 2013-12-19 株式会社ニコン Electronic device
JP2014002464A (en) * 2012-06-15 2014-01-09 Nikon Corp Electronic device
JPWO2015004909A1 (en) * 2013-07-10 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Speaker identification method and speaker identification system
US11393593B2 (en) 2014-07-03 2022-07-19 Fujitsu Limited Biological simulation apparatus and biological simulation apparatus control method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013187138A1 (en) * 2012-06-15 2013-12-19 株式会社ニコン Electronic device
JP2014002464A (en) * 2012-06-15 2014-01-09 Nikon Corp Electronic device
JPWO2015004909A1 (en) * 2013-07-10 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Speaker identification method and speaker identification system
US11393593B2 (en) 2014-07-03 2022-07-19 Fujitsu Limited Biological simulation apparatus and biological simulation apparatus control method

Similar Documents

Publication Publication Date Title
TWI374668B (en)
US20040189823A1 (en) Photographed image recording and reproducing apparatus with simultaneous photographing function
JP4520259B2 (en) Multimedia recording apparatus, multimedia recording method, and multimedia recording system
EP1347455A2 (en) Contents recording/playback apparatus and contents edit method
JP4924442B2 (en) Playback apparatus, control method thereof, and program
JP4312905B2 (en) Image file management method and image file apparatus
JP2016119600A (en) Editing device and editing method
KR20140089771A (en) Apparatus and method for photographing image having audio data
JP2009117973A (en) Playback apparatus and playback method
JP2011228878A (en) Reproducer
KR20090131220A (en) Imaging apparatus and method of controlling the same
WO2007142237A1 (en) Image reproduction system, digital camera, and image reproduction device
JP4208613B2 (en) Imaging device
JP2010200079A (en) Photography control device
JP2009239349A (en) Photographing apparatus
JP3780252B2 (en) Recording / reproducing apparatus and recording / reproducing method
JP2000222381A (en) Album preparation method and information processor and information outputting device
JP2011234180A (en) Imaging apparatus, reproducing device, and reproduction program
JP3956099B2 (en) Recording / playback device
US8947559B2 (en) Recorder and player
JP2004328074A (en) Image data writing method
JP4742061B2 (en) Photographed image display device, photographed image display program, and recording medium recorded with photographed image display program
JP6715907B2 (en) Image editing apparatus, image editing method, and program
KR100697854B1 (en) Multimedia source making and playing system and method of multimedia source making and playing thereof
JP2011081509A (en) Image processing system and image processing apparatus