JP2011010007A - Electronic apparatus, image output method, and program - Google Patents

Electronic apparatus, image output method, and program Download PDF

Info

Publication number
JP2011010007A
JP2011010007A JP2009150918A JP2009150918A JP2011010007A JP 2011010007 A JP2011010007 A JP 2011010007A JP 2009150918 A JP2009150918 A JP 2009150918A JP 2009150918 A JP2009150918 A JP 2009150918A JP 2011010007 A JP2011010007 A JP 2011010007A
Authority
JP
Japan
Prior art keywords
still image
date
image
information
photo frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009150918A
Other languages
Japanese (ja)
Inventor
Noboru Murabayashi
昇 村林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009150918A priority Critical patent/JP2011010007A/en
Publication of JP2011010007A publication Critical patent/JP2011010007A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus, an image output method and a program, capable of displaying a still image relevant to a life at present or in future of a user on a photo frame while effectively using a moving image photographed with a video camera or the like.SOLUTION: A PVR 100 detects a predetermined feature from moving image content photographed with the video camera 300 to extract a key frame, outputs the key frame to a digital photo frame 200 to be displayed, and when specific time arrives, in order to change the still image to other image relevant to the specific time or other image relevant to the specific time and relevant to the key frame, outputs such other image to the digital photo frame 200.

Description

本発明は、例えばデジタルフォトフレーム等の表示装置に画像を出力して表示させることが可能な電子機器、当該電子機器における画像出力方法及びプログラムに関する。   The present invention relates to an electronic device that can output and display an image on a display device such as a digital photo frame, and an image output method and program in the electronic device.

従来から、紙媒体に印刷された写真を鑑賞するためのフォトフレーム(写真立て)に模して、デジタル画像を表示可能なデジタルフォトフレームが存在する。デジタルフォトフレームに関する先行文献としては以下のものが挙げられる。   Conventionally, there is a digital photo frame that can display a digital image, imitating a photo frame (photo frame) for viewing a photograph printed on a paper medium. The following documents can be cited as prior documents relating to digital photo frames.

特開2009−045139号公報JP 2009-045139 A 特開2000−312635号公報JP 2000-31635 A

しかしながら、従来のデジタルフォトフレームは、例えば自身に装着されたメモリカード等の記録媒体から、デジタルカメラ等で撮影された静止画像をランダムに読み出して、単にスライドショーするのが一般的である。したがって、デジタルフォトフレームは、デジタルカメラやコンピュータ等の機器を操作しなくても静止画像を表示できるということ以外の利点を有しない。またユーザは、デジタルフォトフレームにより表示される静止画像を鑑賞することで、例えば過去の出来事を思い出すことはできるが、それを現在または未来の生活と結びつけることはできない。   However, a conventional digital photo frame generally reads out still images taken by a digital camera or the like from a recording medium such as a memory card attached to the digital photo frame, and simply performs a slide show. Therefore, the digital photo frame has no advantage other than that a still image can be displayed without operating a device such as a digital camera or a computer. In addition, the user can, for example, recall past events by appreciating the still image displayed by the digital photo frame, but cannot associate it with the current or future life.

一方、例えばユーザがデジタルビデオカメラ等で撮影した動画像は、撮影後に一回鑑賞されると、それ以後は、特別なことが無い限り鑑賞されることはないため、せっかく撮影した動画像が無駄になっていた。   On the other hand, for example, if a moving image taken by a user with a digital video camera or the like is viewed once after shooting, then it will not be viewed unless there is something special. It was.

以上のような事情に鑑み、本発明の目的は、ビデオカメラ等で撮影された動画像を有効活用しながら、ユーザの現在または未来の生活に関連する静止画像をフォトフレームに表示させることが可能な電子機器、画像出力方法及びプログラムを提供することにある。   In view of the circumstances as described above, an object of the present invention is to display a still image related to a user's current or future life on a photo frame while effectively using a moving image taken by a video camera or the like. It is to provide an electronic device, an image output method, and a program.

上記目的を達成するため、本発明の一形態に係る電子機器は、記憶部と、第1の通信部と、制御部とを有する。上記記憶部は、動画像と、所定の日時情報とを記憶する。上記第1の通信部は、デジタルフォトフレームと通信する。上記制御部は、上記動画像から所定の特徴を抽出し、当該抽出された特徴を基に第1の静止画像を抽出し、上記第1の静止画像を表示させるために、前記第1の通信部により当該第1の静止画像を上記デジタルフォトフレームへ出力する。また当該制御部は、上記日時情報に対応する日時が到来したときに、当該日時情報に関連する第2の静止画像を取得し、上記第1の静止画像を上記第2の静止画像に変化させるために、上記第1の通信部により当該第2の静止画像を上記デジタルフォトフレームへ出力する。
この構成により、電子機器は、動画像から、特定のオブジェクトを含む第1の静止画像を抽出してデジタルフォトフレームに表示させることができるとともに、当該特定のオブジェクトに関連する日時に、当該第1の静止画像を第2の静止画像に変化させることができる。したがって電子機器は、フォトフレームの閲覧者に、動画像中の各シーンを静止画像として閲覧させるのみならず、特定の日時には、当該日時に関連する情報を思い起こさせ、ユーザの現在・未来の行動の指針とすることができる。
ここで動画像とは、例えばデジタルビデオカメラ等により撮影された動画像等であり、所定の特徴とは、例えばパン、チルト、ズーム等の動き特徴や、人物(顔)、動物、建物等のオブジェクトを示す特徴等である。電子機器とは、例えばデジタルビデオカメラ、記録再生装置、その他のAV機器、PC(Personal Computer)、携帯電話機等である。
In order to achieve the above object, an electronic apparatus according to an embodiment of the present invention includes a storage unit, a first communication unit, and a control unit. The storage unit stores a moving image and predetermined date and time information. The first communication unit communicates with a digital photo frame. The control unit extracts a predetermined feature from the moving image, extracts a first still image based on the extracted feature, and displays the first still image in order to display the first still image. The unit outputs the first still image to the digital photo frame. The control unit acquires a second still image related to the date information when the date corresponding to the date information arrives, and changes the first still image to the second still image. Therefore, the second communication image is output to the digital photo frame by the first communication unit.
With this configuration, the electronic device can extract the first still image including the specific object from the moving image and display the first still image on the digital photo frame, and at the date and time related to the specific object, The still image can be changed to the second still image. Therefore, the electronic device not only allows the viewer of the photo frame to browse each scene in the moving image as a still image, but also at a specific date and time, reminds the user of information related to the date and time, and the user's current and future behavior Can be used as a guideline.
Here, the moving image is, for example, a moving image taken by a digital video camera or the like, and the predetermined features include, for example, moving features such as pan, tilt, and zoom, and people (faces), animals, buildings, and the like. This is a feature indicating an object. The electronic device is, for example, a digital video camera, a recording / reproducing apparatus, other AV devices, a PC (Personal Computer), a mobile phone, or the like.

上記電子機器において、上記日時情報は、上記動画像に含まれ得る特定のオブジェクトに関連する日時情報であってもよい。また上記制御部は、上記動画像から上記特定のオブジェクトを認識して、当該特定のオブジェクトを含む静止画像を上記第2の静止画像として抽出してもよい。そして当該制御部は、当該特定のオブジェクトに関連する上記日時情報を基に、当該日時情報に対応する日時が到来したときに、上記第2の静止画像を上記第1の通信部により上記デジタルフォトフレームへ出力してもよい。
これにより電子機器は、動画像から抽出された第2の静止画像を、当該第2の静止画像中のオブジェクトに関連する日時にデジタルフォトフレームに表示させ、日時との関係で当該オブジェクトに関するイベントをユーザに思い出させることができる。例えば、オブジェクトが子供であり、日時情報として当該子供の誕生日が記憶されていれば、フォトフレームには、当該誕生日以外の日時には第1の静止画像として当該子供に関連しない画像がフォトフレームに表示されていても、当該日時が到来したときに、第2の静止画像としての子供の画像が表示される。したがってユーザは、当該日時に当該子供の画像を閲覧することで、子供の誕生日を思い出すことができる。
この場合、上記動画像は音声情報を有し、上記デジタルフォトフレームは当該音声情報を出力可能であってもよい。この場合上記制御部は、上記動画像から、上記抽出された第2の静止画像に含まれる特定のオブジェクトに関連する音声情報を抽出してもよい。そして当該制御部は、上記日時情報に対応する日時が到来したときに、当該抽出された音声情報を出力させるために、当該音声情報を上記デジタルフォトフレームへ出力してもよい。
これにより電子機器は、特定の日時に、当該特定の日時に関連する静止画像をフォトフレームに表示させるとともに、当該特定の日時に関連する音声(音楽)を出力させることができ、当該静止画像を、フォトフレーム上でユーザにより印象深く提供することができる。
In the electronic device, the date information may be date information related to a specific object that can be included in the moving image. The control unit may recognize the specific object from the moving image and extract a still image including the specific object as the second still image. Then, based on the date and time information related to the specific object, the control unit transmits the second still image to the digital photo by the first communication unit when the date and time corresponding to the date and time information arrives. You may output to a frame.
Thus, the electronic device displays the second still image extracted from the moving image on the digital photo frame at the date and time related to the object in the second still image, and the event related to the object is related to the date and time. Remind users. For example, if the object is a child and the date of birth of the child is stored as date / time information, the photo frame includes an image not related to the child as a first still image at a date / time other than the birthday. Even when displayed, the child image as the second still image is displayed when the date and time arrives. Therefore, the user can recall the child's birthday by browsing the child image at the date and time.
In this case, the moving image may have audio information, and the digital photo frame may be able to output the audio information. In this case, the control unit may extract audio information related to a specific object included in the extracted second still image from the moving image. The control unit may output the audio information to the digital photo frame in order to output the extracted audio information when the date and time corresponding to the date and time information arrives.
Thus, the electronic device can display a still image related to the specific date and time on the photo frame at a specific date and output sound (music) related to the specific date and time. It can be provided more impressively by the user on the photo frame.

上記電子機器は、ネットワークに接続する第2の通信部をさらに具備してもよい。この場合上記日時情報は、一日のうちの所定時刻であってもよい。この場合上記制御部は、上記動画像から特定のオブジェクトを認識して、当該特定のオブジェクトを含む静止画像を上記第1の静止画像として抽出してもよい。そして上記制御部は、上記第1の静止画像に関連する関連情報を上記第2の通信部により上記ネットワーク上から検索及び受信し、上記所定時刻が到来したときに、当該受信された関連情報を、上記第2の静止画像として上記第1の通信部により上記デジタルフォトフレームへ出力してもよい。
これにより電子機器は、動画像から抽出した静止画像に含まれるオブジェクトを単にフォトフレーム上で閲覧させるのみならず、当該オブジェクトに関連する情報を、タイミングよく提供することができ、ユーザの利便性を向上させることができる。例えばオブジェクトがユーザのペットである場合、ペットフードに関する情報を、例えば午後4時等、ユーザが買物に出かけるであろう時刻に表示させることができる。
The electronic device may further include a second communication unit connected to the network. In this case, the date information may be a predetermined time of the day. In this case, the control unit may recognize a specific object from the moving image and extract a still image including the specific object as the first still image. The control unit retrieves and receives related information related to the first still image from the network by the second communication unit, and when the predetermined time arrives, the received related information The second still image may be output to the digital photo frame by the first communication unit.
As a result, the electronic device not only allows the object included in the still image extracted from the moving image to be browsed on the photo frame but also provides information related to the object in a timely manner. Can be improved. For example, if the object is a user's pet, information about pet food can be displayed at a time when the user will go shopping, such as at 4 pm.

また上記制御部は、上記第1の静止画像に含まれる上記オブジェクトに関連し、かつ、上記検索を実行する時が属する日に限って入手可能な商品の広告情報を上記関連情報として検索してもよい。
これにより電子機器は、所定時刻に関連情報をフォトフレーム上で表示させることで、当該関連情報を基に、ユーザの毎日の生活習慣において採るべき行動を喚起したり、当該行動における指針を提供したりすることができる。例えば、ユーザが毎日午後4時にスーパーマーケットへ買物に行く場合、電子機器は、当該スーパーマーケットでその日に売り出される商品の広告(チラシ)を関連情報として検索して表示させることができる。
In addition, the control unit searches for advertisement information of a product related to the object included in the first still image and available only on a day to which the time of executing the search belongs as the related information. Also good.
As a result, the electronic device displays relevant information on the photo frame at a predetermined time, thereby invoking actions to be taken in the user's daily lifestyle based on the relevant information and providing guidelines on the actions. Can be. For example, when a user goes to a supermarket for shopping at 4 pm every day, the electronic device can search and display advertisements (flyers) of products for sale on that day in the supermarket as related information.

本発明の他の形態に係る画像出力方法は、動画像と、所定の日時情報とを記憶することを含む。上記動画像からは、所定の特徴が抽出され、当該抽出された特徴を基に第1の静止画像が抽出される。当該抽出された第1の静止画像は、当該第1の静止画像を表示させるためにデジタルフォトフレームへ出力される。そして、上記日時情報に対応する日時が到来したときに、当該日時情報に関連する第2の静止画像が取得される。当該第2の静止画像は、上記第1の静止画像を上記第2の静止画像に変化させるために、上記デジタルフォトフレームへ出力される。   An image output method according to another aspect of the present invention includes storing a moving image and predetermined date / time information. A predetermined feature is extracted from the moving image, and a first still image is extracted based on the extracted feature. The extracted first still image is output to a digital photo frame in order to display the first still image. Then, when the date corresponding to the date information arrives, a second still image related to the date information is acquired. The second still image is output to the digital photo frame in order to change the first still image to the second still image.

本発明のまた別の形態に係るプログラムは、電子機器に、記憶ステップと、抽出ステップと、第1の出力ステップと、取得ステップと、第2の出力ステップとを有する。上記記憶ステップは、動画像と、所定の日時情報とを記憶する。上記抽出ステップは、上記動画像から所定の特徴を抽出し、当該抽出された特徴を基に第1の静止画像を抽出する。上記第1の出力ステップは、上記抽出された第1の静止画像を表示させるために、当該第1の静止画像をデジタルフォトフレームへ出力する。上記取得ステップは、上記日時情報に対応する日時が到来したときに、当該日時情報に関連する第2の静止画像を取得する。上記第2の出力ステップは、上記第1の静止画像を上記第2の静止画像に変化させるために、当該第2の静止画像を上記デジタルフォトフレームへ出力する。   A program according to still another aspect of the present invention includes a storage step, an extraction step, a first output step, an acquisition step, and a second output step in the electronic device. The storing step stores a moving image and predetermined date / time information. The extraction step extracts a predetermined feature from the moving image and extracts a first still image based on the extracted feature. The first output step outputs the first still image to a digital photo frame in order to display the extracted first still image. The acquisition step acquires a second still image related to the date information when the date corresponding to the date information arrives. The second output step outputs the second still image to the digital photo frame in order to change the first still image to the second still image.

以上のように、本発明によれば、ビデオカメラ等で撮影された動画像を有効活用しながら、ユーザの現在または未来の生活に関連する静止画像をフォトフレームに表示させることができる。   As described above, according to the present invention, a still image related to a user's current or future life can be displayed on a photo frame while effectively using a moving image taken by a video camera or the like.

本発明の一実施形態における画像出力システムの概要を示す図である。It is a figure which shows the outline | summary of the image output system in one Embodiment of this invention. 本発明の一実施形態に係るPVRのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of PVR which concerns on one Embodiment of this invention. 本発明の一実施形態に係るPVRの上記特徴抽出部の構成を示した図である。It is the figure which showed the structure of the said characteristic extraction part of PVR which concerns on one Embodiment of this invention. 本発明の一実施形態に係るPVRのオブジェクト認識処理の様子を概念的に示した図である。It is the figure which showed notionally the mode of the object recognition process of PVR which concerns on one Embodiment of this invention. 本発明の一実施形態に係るPVRの静止画像出力処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the still image output process of PVR which concerns on one Embodiment of this invention. 本発明の第1の変形例におけるPVRの静止画像出力処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the still image output process of PVR in the 1st modification of this invention. 本発明の第1の変形例におけるPVRの静止画像変更処理の具体的な処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the specific process of the still image change process of PVR in the 1st modification of this invention. 本発明の第1の変形例における静止画像変更処理の様子を概念的に示した図である。It is the figure which showed notionally the mode of the still image change process in the 1st modification of this invention. 本発明の第2の変形例におけるPVRの静止画像出力処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the still image output process of PVR in the 2nd modification of this invention. 本発明の第2の変形例におけるPVRの静止画像出力処理の具体的な処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the specific process of the still image output process of PVR in the 2nd modification of this invention. 本発明の第2の変形例におけるPVRの静止画像変更処理の具体的な処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the specific process of the still image change process of PVR in the 2nd modification of this invention.

以下、図面を参照しながら、本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[PVRの概要]
図1は、本発明の一実施形態における画像出力システムの概要を示す図である。
同図に示すように、PVR(Personal Video Recorder)100は、フォトフレーム200、ビデオカメラ300、携帯端末400と有線または無線により通信可能であり、また例えばインターネット等のネットワーク50にも接続可能である。
[Outline of PVR]
FIG. 1 is a diagram showing an outline of an image output system according to an embodiment of the present invention.
As shown in the figure, a PVR (Personal Video Recorder) 100 can communicate with a photo frame 200, a video camera 300, and a portable terminal 400 by wire or wireless, and can also be connected to a network 50 such as the Internet. .

PVR100は、ビデオカメラ300に記憶された、ユーザが撮影した動画像コンテンツをビデオカメラ300から受信して記憶している。またPVR100は、当該動画像コンテンツに含まれるタイムコードも日時情報として記憶している。さらにPVR100は、携帯端末からユーザのスケジュール情報を受信し、当該スケジュール情報を日時情報として記憶している。   The PVR 100 receives and stores moving image content captured by the user stored in the video camera 300 from the video camera 300. The PVR 100 also stores time codes included in the moving image content as date / time information. Further, the PVR 100 receives the user's schedule information from the mobile terminal and stores the schedule information as date / time information.

PVR100は、当該動画像コンテンツから静止画像を抽出し、当該静止画像をデジタルフォトフレーム200へ出力し表示させる。またPVR100は、上記日時情報を基に、デジタルフォトフレーム200において表示された静止画像を他の静止画像へと変化させることが可能である。当該他の静止画像には、ネットワーク50を介して受信されるものも含まれる。さらにPVR100は、静止画像とともに、音声情報もデジタルフォトフレーム200へ送信し出力させることが可能である。   The PVR 100 extracts a still image from the moving image content and outputs the still image to the digital photo frame 200 for display. The PVR 100 can change a still image displayed on the digital photo frame 200 to another still image based on the date / time information. The other still images include those received via the network 50. Further, the PVR 100 can transmit and output audio information to the digital photo frame 200 together with a still image.

デジタルフォトフレーム200は、フレーム201、LCD(Liquid Crystal Display)202及び図示しないUSB(Universal Serial Bus)インタフェース、無線LAN、Bluetooth(登録商標)等の通信インタフェースを有する。デジタルフォトフレーム200(以下、単にフォトフレーム200ともいう)は、当該通信インタフェースにより、PVR100から出力された静止画像を受信し、当該静止画像を上記LCD202により表示することが可能である。またデジタルフォトフレーム200は、図示しないスピーカを有し、同様にPVR100から受信した音声情報を出力することも可能である。   The digital photo frame 200 includes a frame 201, an LCD (Liquid Crystal Display) 202, and a communication interface such as a USB (Universal Serial Bus) interface (not shown), a wireless LAN, and Bluetooth (registered trademark). The digital photo frame 200 (hereinafter also simply referred to as the photo frame 200) can receive a still image output from the PVR 100 through the communication interface and display the still image on the LCD 202. The digital photo frame 200 has a speaker (not shown), and can also output audio information received from the PVR 100.

[PVRのハードウェア構成]
図2は、上記PVR100のハードウェア構成を示す図である。
同図に示すように、このPVR100は、デジタルチューナ1、復調部2、デマルチプレクサ3、デコーダ4、記録再生部5、HDD(Hard Disk Drive)8、光ディスクドライブ9、通信部11を有する。またPVR100は、CPU(Central Processing Unit)12、フラッシュメモリ13、RAM(Random Access Memory)14を有する。さらにPVR100は、操作入力部15、グラフィック制御部16、映像D/A(Digital/Analog)コンバータ17、音声D/A(Digital/Analog)コンバータ18、無線インタフェース(I/F)19、外部インタフェース20及び特徴抽出部21を有する。
[Hardware configuration of PVR]
FIG. 2 is a diagram showing a hardware configuration of the PVR 100. As shown in FIG.
As shown in the figure, the PVR 100 includes a digital tuner 1, a demodulator 2, a demultiplexer 3, a decoder 4, a recording / reproducing unit 5, an HDD (Hard Disk Drive) 8, an optical disk drive 9, and a communication unit 11. The PVR 100 includes a CPU (Central Processing Unit) 12, a flash memory 13, and a RAM (Random Access Memory) 14. Further, the PVR 100 includes an operation input unit 15, a graphic control unit 16, a video D / A (Digital / Analog) converter 17, an audio D / A (Digital / Analog) converter 18, a wireless interface (I / F) 19, and an external interface 20. And a feature extraction unit 21.

デジタルチューナ1は、CPU12の制御に従って、アンテナ30を介してデジタル放送の特定のチャンネルを選局して、番組のデータを含む放送信号を受信する。復調部2は、変調された当該放送信号を復調する。   Under the control of the CPU 12, the digital tuner 1 selects a specific channel for digital broadcasting via the antenna 30 and receives a broadcast signal including program data. The demodulator 2 demodulates the modulated broadcast signal.

デマルチプレクサ3は、多重化された放送信号を、映像信号と音声信号とに分離し、デコーダ4へ供給する。またデマルチプレクサ3は、分離した各信号を、特徴抽出部21へも供給可能である。デコーダ4は、デマルチプレクサ3で分離された映像信号及び音声信号をそれぞれデコードする。デコードされた各信号は記録再生部5へ供給される。   The demultiplexer 3 separates the multiplexed broadcast signal into a video signal and an audio signal and supplies them to the decoder 4. The demultiplexer 3 can also supply each separated signal to the feature extraction unit 21. The decoder 4 decodes the video signal and the audio signal separated by the demultiplexer 3, respectively. Each decoded signal is supplied to the recording / reproducing unit 5.

記録再生部5は、記録部6及び再生部7を有する。記録部6は、デコーダ4によりデコードされ入力された映像信号及び音声信号を一時的に蓄積して、タイミングやデータ量を制御しながらHDD8や光ディスクドライブ9に出力して記録させる。また記録部6は、HDD8に記録されたコンテンツを読み出して光ディスクドライブ9に出力し、光ディスク10に記録させることも可能である。再生部7は、HDD8や光ディスク10に記録された映像コンテンツの映像信号及び音声信号を読み出し、タイミングやデータ量を制御しながらデコーダ4へ出力して再生させる。   The recording / reproducing unit 5 includes a recording unit 6 and a reproducing unit 7. The recording unit 6 temporarily stores the video signal and the audio signal decoded and input by the decoder 4 and outputs and records them on the HDD 8 and the optical disk drive 9 while controlling the timing and the data amount. The recording unit 6 can also read the content recorded on the HDD 8, output it to the optical disc drive 9, and record it on the optical disc 10. The playback unit 7 reads the video signal and audio signal of the video content recorded on the HDD 8 or the optical disk 10 and outputs them to the decoder 4 for playback while controlling the timing and the data amount.

HDD8は、デジタルチューナ1を介して受信した番組や、通信部11によりインターネット等のネットワーク50を介して受信される種々のコンテンツを内蔵のハードディスクに記憶する。またHDD8は、上記デジタルカメラ300や携帯端末400等から、外部インタフェース20等を介して入力した上記動画像コンテンツ及び上記日時情報も記憶する。日時情報としては、例えば、特定の人物に関するイベント(誕生日、記念日等)や、ユーザが経験した過去の出来事(旅行、結婚式等)の日付等がある。この日時情報は、上記イベントや出来事を識別する情報とそれぞれ対応付けられて記憶される。さらにHDD8は、動画像コンテンツから特定のオブジェクト(例えば顔)を認識するための学習用データも記憶する。これらの記憶されたコンテンツが再生される際には、HDD8は、これらのデータを上記ハードディスクから読み出し、記録再生部5へ出力する。   The HDD 8 stores a program received via the digital tuner 1 and various contents received via the network 50 such as the Internet by the communication unit 11 in a built-in hard disk. The HDD 8 also stores the moving image content and the date / time information input from the digital camera 300 or the portable terminal 400 via the external interface 20 or the like. The date information includes, for example, events related to a specific person (birthday, anniversary, etc.) and dates of past events (travel, wedding, etc.) experienced by the user. This date / time information is stored in association with information identifying the event or event. Further, the HDD 8 also stores learning data for recognizing a specific object (for example, a face) from the moving image content. When these stored contents are reproduced, the HDD 8 reads these data from the hard disk and outputs them to the recording / reproducing unit 5.

またHDD8は、アプリケーション等の各種プログラム、その他のデータ等を記憶する場合もある。これらのプログラムやデータは、それらの実行時及び参照時に、CPU12の指令によりHDD8から読み出され、RAM14へ展開される。   The HDD 8 may store various programs such as applications, other data, and the like. These programs and data are read from the HDD 8 according to a command from the CPU 12 and executed in the RAM 14 at the time of execution and reference.

光ディスクドライブ9は、上記HDD8と同様に、当該装着された光ディスク10に上記番組コンテンツ等の各種データを記録し、また記録されたデータを読み出すことが可能である。また上記各種プログラムは、これら光ディスク10等の可般性の記録媒体に記録され、光ディスクドライブ9によりPVR100にインストールされてもよい。   Similar to the HDD 8, the optical disk drive 9 can record various data such as the program content on the mounted optical disk 10, and can read the recorded data. The various programs may be recorded on a general-purpose recording medium such as the optical disk 10 and installed in the PVR 100 by the optical disk drive 9.

通信部11は、上記ネットワーク50に接続してTCP/IP(Transmission Control Protocol / Internet Protocol)等のプロトコルによりネットワーク50上の他の装置とデータのやり取りを行うためのネットワークインタフェースである。通信部11により受信されたデータが多重化されている場合、デマルチプレクサ3に供給される。また受信されたデータのうち少なくとも一部は、必要に応じて特徴抽出部21にも供給される。   The communication unit 11 is a network interface for connecting to the network 50 and exchanging data with other devices on the network 50 using a protocol such as TCP / IP (Transmission Control Protocol / Internet Protocol). When the data received by the communication unit 11 is multiplexed, the data is supplied to the demultiplexer 3. At least a part of the received data is also supplied to the feature extraction unit 21 as necessary.

無線インタフェース19は、例えば無線LAN、Bluetooth(登録商標)等の無線通信規格に準じたモジュールを有し、フォトフレーム200へ無線により静止画像や音声情報を送信可能である。   The wireless interface 19 includes a module conforming to a wireless communication standard such as a wireless LAN and Bluetooth (registered trademark), for example, and can transmit still images and audio information to the photo frame 200 wirelessly.

外部インタフェース20は、例えばUSBインタフェース等からなり、上記ビデオカメラ300から動画像コンテンツを受信したり、携帯端末400からスケジュール情報を受信したりする。当該動画像コンテンツやスケジュール情報は、上記無線インタフェース19を介してビデオカメラ300及び携帯端末400から受信されても構わない。   The external interface 20 includes a USB interface, for example, and receives moving image content from the video camera 300 and schedule information from the mobile terminal 400. The moving image content and schedule information may be received from the video camera 300 and the portable terminal 400 via the wireless interface 19.

CPU12は、必要に応じてRAM14等にアクセスし、記録再生部5によるデータの記録及び再生処理等、PVR100の各ブロックの処理を統括的に制御する。   The CPU 12 accesses the RAM 14 or the like as necessary, and comprehensively controls processing of each block of the PVR 100 such as data recording and playback processing by the recording / playback unit 5.

フラッシュメモリ13は、例えばNAND型のものであり、CPU12に実行させるOS、プログラムや各種パラメータなどのファームウェアが固定的に記憶されている不揮発性のメモリである。またフラッシュメモリ13は、動画像コンテンツからの静止画像及び音声情報の抽出処理及びフォトフレーム200へ出力する静止画像及び音声情報の変更処理等に用いるプログラム、その他の各種プログラム、上記EPGデータ等の各種データを記憶する。   The flash memory 13 is, for example, a NAND type, and is a non-volatile memory in which firmware such as an OS, a program, and various parameters executed by the CPU 12 is fixedly stored. In addition, the flash memory 13 is a program used for extracting still images and audio information from moving image content, changing a still image and audio information to be output to the photo frame 200, various other programs, various EPG data, and the like. Store the data.

RAM14は、CPU12の作業用領域等として用いられ、上記静止画像及び音声情報の抽出処理や変更処理の最中に、OSやプログラム、処理データ等を一時的に保持するメモリである。   The RAM 14 is a memory that is used as a work area of the CPU 12 and temporarily stores an OS, a program, processing data, and the like during the above-described still image and audio information extraction processing and change processing.

操作入力部15は、例えば複数のキーを有するリモートコントローラ22(以下、リモコン22と称する)から、ユーザの操作による各種設定値や指令を入力してCPU12へ出力する。もちろん、操作入力部15は、リモコン22によらずに、PVR100に接続されたキーボードやマウス、PVR100に実装されたスイッチ等で構成されていても構わない。   The operation input unit 15 inputs, for example, various setting values and commands by a user operation from a remote controller 22 having a plurality of keys (hereinafter referred to as a remote controller 22), and outputs it to the CPU 12. Of course, the operation input unit 15 may be configured by a keyboard or mouse connected to the PVR 100, a switch mounted on the PVR 100, or the like without using the remote controller 22.

グラフィック制御部16は、デコーダ4から出力された映像信号やCPU12から出力されるその他の映像データにOSD(On Screen Display)処理等のグラフィック処理を施し、例えばテレビジョン装置(TV)等の表示装置に表示させるための映像信号を生成する。   The graphic control unit 16 performs graphic processing such as OSD (On Screen Display) processing on the video signal output from the decoder 4 and other video data output from the CPU 12, for example, a display device such as a television device (TV). A video signal to be displayed on the screen is generated.

映像D/Aコンバータ17は、上記グラフィック制御部16から入力されたデジタル映像信号をアナログ映像信号に変換して、表示装置へ出力する。   The video D / A converter 17 converts the digital video signal input from the graphic control unit 16 into an analog video signal and outputs the analog video signal to the display device.

音声D/Aコンバータ18は、上記デコーダ4から入力されたデジタル音声信号をアナログ音声信号に変換して、TV等へ出力する。   The audio D / A converter 18 converts the digital audio signal input from the decoder 4 into an analog audio signal and outputs the analog audio signal to a TV or the like.

特徴抽出部21は、上記ビデオカメラ300から受信して記憶した動画像コンテンツから、所定の映像特徴及び音声特徴を抽出し、当該各特徴を基に、フォトフレーム200へ出力するための静止画像及び音声情報を抽出する。所定の映像特徴とは、例えばパン、チルト、ズーム等の動き特徴や、人物(顔)、動物、建物等のオブジェクトを示す特徴等である。所定の音声特徴とは、例えば人の声を示す特徴、より具体的には音声パワーの継続時間を示す特徴等である。   The feature extraction unit 21 extracts predetermined video features and audio features from the moving image content received and stored from the video camera 300, and based on the features, a still image and a still image for output to the photo frame 200 are extracted. Extract voice information. The predetermined video features are, for example, motion features such as pan, tilt, and zoom, and features that indicate objects such as people (faces), animals, and buildings. The predetermined voice feature is, for example, a feature showing a human voice, more specifically, a feature showing a duration of voice power.

[特徴抽出部の構成]
図3は、PVR100の上記特徴抽出部21の構成を示した図である。
同図に示すように、特徴抽出部21は、画像に関する処理を行うブロックとして、キーフレーム抽出部211、画像特徴検出部212及び画像メモリ213を有する。また特徴抽出部21は、音声に関する処理を行うブロックとして、音声特徴抽出部214、音声特徴検出部215及び音声メモリ216を有する。
[Configuration of Feature Extraction Unit]
FIG. 3 is a diagram illustrating a configuration of the feature extraction unit 21 of the PVR 100.
As shown in the figure, the feature extraction unit 21 includes a key frame extraction unit 211, an image feature detection unit 212, and an image memory 213 as blocks for performing processing relating to an image. The feature extraction unit 21 includes a speech feature extraction unit 214, a speech feature detection unit 215, and a speech memory 216 as blocks that perform processing related to speech.

ユーザは、例えばリモコン22により、PVR100の各動作モード(放送番組視聴モード、録画番組視聴モード等)のうち、PVR100に記憶された動画像コンテンツから抽出される静止画像をフォトフレーム200に表示するモードを選択する。当該モード選択操作が入力されると、操作入力部15を介して当該モード選択情報がCPU12へ伝えられ、動画像コンテンツからの特徴抽出処理が開始される。   The user uses, for example, the remote controller 22 to display a still image extracted from the moving image content stored in the PVR 100 on the photo frame 200 among the operation modes of the PVR 100 (broadcast program viewing mode, recorded program viewing mode, etc.). Select. When the mode selection operation is input, the mode selection information is transmitted to the CPU 12 via the operation input unit 15, and feature extraction processing from the moving image content is started.

CPU12は、HDD8に記憶されたコンテンツのうち、ビデオカメラ300から転送された動画像コンテンツを特徴抽出部21へ入力する。当該動画像コンテンツのうち画像データは、キーフレーム抽出部211及び画像特徴検出部212へ入力される。   The CPU 12 inputs the moving image content transferred from the video camera 300 among the content stored in the HDD 8 to the feature extraction unit 21. Image data of the moving image content is input to the key frame extraction unit 211 and the image feature detection unit 212.

画像特徴検出部212は、動画像コンテンツから、例えばパン、チルト、ズーム等のカメラ特徴や、オブジェクト(顔等)等の画像特徴を検出し、その結果をCPU12へ伝える。CPU12は、当該検出結果を基に、動画像コンテンツから、画像特徴が抽出されたフレームをキーフレームとして抽出するようにキーフレーム抽出部211を制御する。抽出されたキーフレームは、画像メモリ213へ蓄積され、後述の処理によりフォトフレーム200へ出力される。   The image feature detection unit 212 detects camera features such as pan, tilt, and zoom, and image features such as an object (such as a face) from the moving image content, and transmits the results to the CPU 12. Based on the detection result, the CPU 12 controls the key frame extraction unit 211 so as to extract, from the moving image content, the frame from which the image feature is extracted as a key frame. The extracted key frames are stored in the image memory 213 and are output to the photo frame 200 through processing described later.

ここで、カメラ特徴やオブジェクトが画像特徴として抽出されるのは、カメラ特徴区間はユーザが意図してカメラを操作して撮影した区間であるため、ユーザにとって重要なシーンであると考えられ、また顔等のオブジェクトはユーザの注目の的となりやすいためである。PVR100は、これらの特徴を含む静止画像がフォトフレーム200へ出力し表示させることで、ユーザにとって印象の強い画像を閲覧させることができる。   Here, camera features and objects are extracted as image features because the camera feature section is a section where the user intentionally operates the camera and is taken as an important feature for the user. This is because an object such as a face is likely to be the focus of user attention. The PVR 100 allows a user to view an image that has a strong impression for the user by outputting and displaying a still image including these features on the photo frame 200.

音声特徴検出部215は、動画像コンテンツの音声データのうち、例えば上記キーフレームの前後区間の音声であって、所定レベル以上のパワーを有する音声を音声特徴として検出し、検出結果をCPU12へ伝える。CPU12は、当該検出結果を基に、動画像コンテンツから、音声特徴が検出された区間の音声データを音声特徴区間データとして抽出するように音声特徴抽出部214を制御する。抽出された音声特徴区間データは音声メモリ216へ蓄積され、後述の処理によりフォトフレーム200へ出力される。   The audio feature detection unit 215 detects, for example, audio in the preceding and following sections of the key frame in the audio data of the moving image content as audio features and transmits the detection result to the CPU 12. . Based on the detection result, the CPU 12 controls the voice feature extraction unit 214 so as to extract the voice data of the section in which the voice feature is detected from the moving image content as the voice feature section data. The extracted voice feature section data is stored in the voice memory 216, and is output to the photo frame 200 by the processing described later.

[PVRの動作]
次に、以上のように構成されたPVR100の動作について説明する。以降の説明においては、PVR100のCPU12を主な動作主体として説明する。しかし、この動作は、上記特徴抽出部21や、CPU12の制御下において実行されるプログラムとも協働して行われる。
[Operation of PVR]
Next, the operation of the PVR 100 configured as described above will be described. In the following description, the CPU 12 of the PVR 100 will be described as the main operating subject. However, this operation is also performed in cooperation with the feature extraction unit 21 and a program executed under the control of the CPU 12.

(オブジェクト判別処理)
まず、本実施形態においてフォトフレーム200に表示される静止画像を変化させる上で必要となるオブジェクト認識処理について説明する。図4は、当該オブジェクト認識処理の様子を概念的に示した図である。
(Object discrimination processing)
First, an object recognition process necessary for changing a still image displayed on the photo frame 200 in the present embodiment will be described. FIG. 4 is a diagram conceptually showing the state of the object recognition process.

同図に示すように、PVR100のHDD8には、学習用データとして様々なオブジェクトを示す静止画像が記憶されている。本実施形態においては、デジタルカメラ300で撮影される動画像は家庭内のものであることを想定し、例えばユーザの家族やペット(例えば赤ちゃん、犬、長女、母親、父親等)を示す画像が学習用データとして記憶される。特徴抽出部21は、当該学習用データから、例えばエッジ、色、テクスチャ等の特徴量を抽出して多次元ベクトル化し、当該特徴ベクトルを基に、統計的機械学習により、判別関数を生成する。生成された判別関数は、例えばHDD8やフラッシュメモリ13等に記憶され、動画像コンテンツからのオブジェクト検出の際に必要な判別分析処理に用いられる。例えば、動画像コンテンツに含まれる未知の画像データから抽出した特徴データに基づくが判別関数に入力されることで、当該未知のオブジェクトが既知のオブジェクト(同図では犬)であると判別され、その結果が出力される。   As shown in the figure, the HDD 8 of the PVR 100 stores still images indicating various objects as learning data. In the present embodiment, assuming that the moving image captured by the digital camera 300 is in the home, for example, an image showing the user's family and pets (for example, baby, dog, eldest daughter, mother, father, etc.) It is stored as learning data. The feature extraction unit 21 extracts feature quantities such as edges, colors, textures, and the like from the learning data, converts them into multidimensional vectors, and generates a discriminant function by statistical machine learning based on the feature vectors. The generated discriminant function is stored in, for example, the HDD 8 or the flash memory 13, and used for discriminant analysis processing necessary for detecting an object from moving image content. For example, based on feature data extracted from unknown image data included in the moving image content, it is determined that the unknown object is a known object (a dog in the figure) by being input to the discriminant function. The result is output.

また、判別関数を用いた判別分析処理の代わりに、例えばサポートベクターマシン(SVM)、Ada-boost、ニューラルネットワーク等の機械学習的な手法を用いた判別分析処理が実行されてもよい。この場合、判別関数の代わりに、その判別処理を実行する処理モジュールがPVR100に組み込まれる。   Further, instead of the discriminant analysis process using the discriminant function, a discriminant analysis process using a machine learning method such as a support vector machine (SVM), Ada-boost, or a neural network may be executed. In this case, instead of the discriminant function, a processing module that executes the discriminating process is incorporated in the PVR 100.

オブジェクト全体ではなく、例えば人間の顔を認識する場合は、特徴抽出部21は、例えば顔の各パーツの位置関係に応じた特徴フィルター、輝度分布情報、肌色情報等を用いて顔特徴データを抽出して特徴ベクトルを生成する。   For example, when recognizing a human face instead of the entire object, the feature extraction unit 21 extracts face feature data using, for example, a feature filter, luminance distribution information, skin color information, and the like according to the positional relationship of each part of the face. To generate a feature vector.

(フォトフレームへの静止画像出力処理)
次に、PVR100によるフォトフレームへの静止画像出力処理について説明する。図5は、当該静止画像出力処理の流れを示したフローチャートである。
(Still image output processing to photo frame)
Next, still image output processing to a photo frame by the PVR 100 will be described. FIG. 5 is a flowchart showing the flow of the still image output process.

同図に示すように、まずPVR100のCPU12は、ビデオカメラ300から入力された動画像コンテンツから、映像特徴及び音声特徴を抽出する(ステップ41)。映像特徴抽出処理により、キーフレームが検出された場合(ステップ42のYes)、CPU12は、当該キーフレームを抽出する(ステップ43)。当該キーフレームとしては、パン、チルト、ズーム等のカメラ特徴を有するフレームや、上記判別関数を基に認識されたオブジェクトを含むフレームが抽出される。当該抽出処理は、例えばユーザが上記モード選択を行った場合に開始される。   As shown in the figure, first, the CPU 12 of the PVR 100 extracts video features and audio features from the moving image content input from the video camera 300 (step 41). When a key frame is detected by the video feature extraction process (Yes in step 42), the CPU 12 extracts the key frame (step 43). As the key frame, a frame having camera characteristics such as pan, tilt, and zoom, and a frame including an object recognized based on the discriminant function are extracted. The extraction process is started when the user selects the mode, for example.

カメラ特徴を認識するため、特徴抽出部21は、例えば、複数のフレーム間で各画素についてブロックマッチング処理を行うことで動きベクトルを検出し、当該動きベクトルを基に重回帰分析によりアフィン係数を算出する。そして特徴抽出部21は、当該アフィン係数がパン、チルト、ズームのいずれの特徴を示しているかを、例えば各カメラ特徴に応じた閾値により判断して、カメラ特徴の有無を検出する。   In order to recognize camera features, for example, the feature extraction unit 21 detects a motion vector by performing block matching processing for each pixel between a plurality of frames, and calculates an affine coefficient by multiple regression analysis based on the motion vector. To do. The feature extraction unit 21 determines whether the affine coefficient indicates a pan, tilt, or zoom feature based on, for example, a threshold corresponding to each camera feature, and detects the presence or absence of the camera feature.

またCPU12は、当該キーフレームが抽出された区間の音声データのうち、例えば人の声が含まれる区間を音声特徴区間データとして抽出する。動画像データに含まれる音声区間のうち、人の声には、子音、母音、息継ぎ等が含まれるため、音楽等の声以外の音声と比べて、所定パワー以上の継続区間が短いという特徴がある。この特徴を利用して、特徴抽出部21は例えば、時間に関する閾値を設定し、所定パワー以上の平均継続時間長が当該閾値よりも小さい場合には、その区間は声区間とし、当該閾値よりも大きい場合には、その区間は非声区間であると判定する。   Further, the CPU 12 extracts, for example, a section including a human voice as voice feature section data from the voice data of the section from which the key frame is extracted. Among the voice sections included in the moving image data, the human voice includes consonants, vowels, breath breaths, etc., so that the duration of the predetermined power or higher is shorter than voice other than voice such as music. is there. Using this feature, the feature extraction unit 21 sets, for example, a threshold value related to time, and when the average duration time equal to or greater than a predetermined power is smaller than the threshold value, the segment is set as a voice segment. If it is larger, it is determined that the section is a non-voice section.

続いてCPU12は、上記抽出されたキーフレームを上記画像メモリ213へ保存し、また上記抽出された音声特徴区間データを上記音声メモリ216へ保存する(ステップ44)。このとき、保存されるキーフレームに含まれるオブジェクト(人)を識別する情報も合わせて保存される。   Subsequently, the CPU 12 stores the extracted key frame in the image memory 213, and stores the extracted voice feature section data in the voice memory 216 (step 44). At this time, information for identifying the object (person) included in the stored key frame is also stored.

CPU12は、当該特徴抽出・メモリ処理を、例えばビデオカメラ300から入力した全ての動画像コンテンツについて繰り返す(ステップ45)。   The CPU 12 repeats the feature extraction / memory processing for all moving image contents input from the video camera 300, for example (step 45).

続いてCPU12は、上記メモリされたキーフレームをフォトフレーム200へ出力し、当該フォトフレーム200での画像表示処理を開始させる(ステップ46)。例えばCPU12は、上記抽出されたキーフレームを、抽出された特徴に応じて優先順位をつけて順次所定間隔でフォトフレーム200へ出力する。所定間隔は例えば30秒であるが、これに限られない。フォトフレーム200は、当該キーフレームを、当該時間間隔毎に表示する。優先順位は、例えば、(1)ズーム、(2)顔、(3)パン、(4)チルトの順に設定されてもよい。   Subsequently, the CPU 12 outputs the stored key frame to the photo frame 200, and starts image display processing in the photo frame 200 (step 46). For example, the CPU 12 gives priority to the extracted key frames according to the extracted features and sequentially outputs them to the photo frame 200 at predetermined intervals. The predetermined interval is, for example, 30 seconds, but is not limited thereto. The photo frame 200 displays the key frame at each time interval. For example, the priority order may be set in the order of (1) zoom, (2) face, (3) pan, and (4) tilt.

続いてCPU12は、HDD8等から、上記日時(年も含む)情報を取得し(ステップ47)、当該日時情報と、内蔵クロックが示す現在の日時とを比較する(ステップ48)。そしてCPU12は、現在の日時が、上記記憶された日時情報に対応する特定の日時が到来したと判断した場合(ステップ48のYes)、当該日時情報に関連する静止画像を取得する。当該関連する静止画像は、例えば、上記キーフレームとして抽出されたフレームのうち、当該到来した日時に対応する日時情報に関連するオブジェクトを含むフレームである。CPU12は、当該日時情報に関連するフレームをフォトフレーム200へ出力し、それまで表示されたフレームを当該新たなフレームへと変更させる(ステップ49)。またこのとき、当該新たなフレームに関連する音声情報があれば、CPU12は、当該音声情報も出力する。   Subsequently, the CPU 12 acquires the date and time (including year) information from the HDD 8 or the like (step 47), and compares the date and time information with the current date and time indicated by the built-in clock (step 48). If the CPU 12 determines that the specific date and time corresponding to the stored date and time information has arrived (Yes in step 48), the CPU 12 acquires a still image related to the date and time information. The related still image is, for example, a frame including an object related to date / time information corresponding to the date / time of arrival among the frames extracted as the key frame. The CPU 12 outputs a frame related to the date and time information to the photo frame 200, and changes the frame displayed so far to the new frame (step 49). At this time, if there is audio information related to the new frame, the CPU 12 also outputs the audio information.

例えば、上記記憶された日時情報がユーザの子供の誕生日であった場合、CPU12は、当該子供の誕生日が到来したときに、当該子供の画像を含むフレームを画像メモリ213から抽出して出力し、それまでのフレームに替わってフォトフレーム200に表示させる。これによりユーザは、その日が子供の誕生日であることを認識し、例えばプレゼントや特別な食事を用意するといった計画を立てることができる。このとき、CPU12は、例えば楽曲"Happy Birthday"の音声情報をフォトフレーム200へ出力し再生させてもよい。これにより誕生日の雰囲気がより盛り上がることになる。   For example, when the stored date and time information is the birthday of the child of the user, the CPU 12 extracts and outputs a frame including the image of the child from the image memory 213 when the birthday of the child arrives. Then, it is displayed on the photo frame 200 in place of the previous frame. Thus, the user can recognize that the day is a child's birthday and can make a plan such as preparing a present or a special meal. At this time, for example, the CPU 12 may output the audio information of the music “Happy Birthday” to the photo frame 200 and reproduce it. This will make the birthday atmosphere more exciting.

また、上記記憶された日時情報が、ユーザ自身の結婚記念日であった場合、CPU12は、当該記念日が到来したときに、ユーザ自身と配偶者が含まれるフレームを抽出してフォトフレーム200へ出力してもよい。これによりユーザは、当該記念日を認識して、何らかの準備をすることはもちろん、例えばその日の食卓等でフォトフレーム200を閲覧しながら思い出に浸ることができる。   If the stored date and time information is the user's own wedding anniversary, the CPU 12 extracts a frame including the user and the spouse when the anniversary arrives, and sends the frame to the photo frame 200. It may be output. As a result, the user can recognize the anniversary and make some preparations, and can soak in memories while browsing the photo frame 200 on the table of the day, for example.

CPU12は、以上の処理を、ユーザにより処理終了が指示されるまでの間、上記記憶された日時情報に対応する日時が到来するたびに繰り返す。   The CPU 12 repeats the above processing every time the date and time corresponding to the stored date and time information arrives until the end of the processing is instructed by the user.

[まとめ]
以上説明したように、本実施形態によれば、ビデオカメラ等で撮影された動画像を有効活用しながら、ユーザの現在または未来の生活に関連する静止画像をフォトフレームに表示させることができる。
[Summary]
As described above, according to the present embodiment, a still image related to a user's current or future life can be displayed on a photo frame while effectively using a moving image taken by a video camera or the like.

[変形例]
本発明は上述の実施形態にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
[Modification]
The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the present invention.

(変形例1)
上述の実施形態においては、フォトフレーム200で表示される静止画像の変更にあたり、動画像コンテンツから抽出されたキーフレームのうち、HDD8に記憶された日時情報に関連するキーフレームが出力された。しかし、PVR100は、例えば、それまでフォトフレーム200で表示されていたキーフレームに関連する情報を外部から取得して、当該取得した関連情報を新たな静止画像としてフォトフレーム200へ出力して表示させることもできる。以下、この場合のPVR100の具体的処理について説明する。
(Modification 1)
In the above-described embodiment, when changing the still image displayed in the photo frame 200, the key frame related to the date / time information stored in the HDD 8 among the key frames extracted from the moving image content is output. However, the PVR 100 acquires, for example, information related to the key frame that has been displayed in the photo frame 200 from the outside, and outputs the acquired related information to the photo frame 200 as a new still image for display. You can also Hereinafter, specific processing of the PVR 100 in this case will be described.

図6は、本変形例におけるPVR100の静止画像出力処理の流れを示したフローチャートである。以下では、PVR100によるフォトフレーム200への音声情報の出力処理については説明を省略するが、音声情報についても上記実施形態と同様にキーフレームから抽出され、フォトフレーム200へ出力されるものとする。   FIG. 6 is a flowchart showing the flow of still image output processing of the PVR 100 in the present modification. In the following, description of the output processing of audio information to the photo frame 200 by the PVR 100 is omitted, but it is assumed that the audio information is also extracted from the key frame and output to the photo frame 200 as in the above embodiment.

同図に示すように、まずCPU12は、動画像コンテンツからのキーフレーム検出にあたり、検出フラグk(n)を0に初期設定する(ステップ61)。ここでnは、0≦n≦kmaxである。   As shown in the figure, first, the CPU 12 initializes a detection flag k (n) to 0 when detecting a key frame from the moving image content (step 61). Here, n is 0 ≦ n ≦ kmax.

続いてCPU12は、キーフレームの検出数を示すカウンタmを0に設定する(ステップ62)。続いてCPU12は、上述の実施形態と同様に、動画像コンテンツから、フレーム毎に、カメラ特徴やオブジェクト特徴等の画像特徴を抽出する(ステップ63)。   Subsequently, the CPU 12 sets a counter m indicating the number of detected key frames to 0 (step 62). Subsequently, as in the above-described embodiment, the CPU 12 extracts image features such as camera features and object features for each frame from the moving image content (step 63).

続いてCPU12は、当該特徴抽出処理により、当該処理対象のフレームがキーフレームであるか否かを判断し(ステップ64)、当該フレームがキーフレームである場合(Yes)には、m番目のフレームについての上記検出フラグをk(m)=1に設定した上で(ステップ65)、mをインクリメントする(ステップ66)。   Subsequently, the CPU 12 determines whether or not the processing target frame is a key frame by the feature extraction process (step 64). If the frame is a key frame (Yes), the mth frame is determined. Is set to k (m) = 1 (step 65), and m is incremented (step 66).

そしてCPU12は、当該キーフレームを抽出して(ステップ67)、上記画像メモリ213へ保存する(ステップ68)。CPU12は、以上の処理を、ビデオカメラ300から取り込んだ全ての動画像コンテンツの全てのフレームについて繰り返す(ステップ69)。   Then, the CPU 12 extracts the key frame (step 67) and stores it in the image memory 213 (step 68). The CPU 12 repeats the above processing for all frames of all moving image contents captured from the video camera 300 (step 69).

当該キーフレーム抽出処理が終了すると(ステップ69のYes)、CPU12は、当該キーフレームのフォトフレーム200への出力処理を実行する。   When the key frame extraction process ends (Yes in step 69), the CPU 12 executes an output process of the key frame to the photo frame 200.

まずCPU12は、当該キーフレーム出力処理のカウンタnを0に初期設定する(ステップ70)。続いてCPU12は、上記抽出されたキーフレームを、例えば上記実施形態における優先順位に従って、順次フォトフレームへ出力し表示させる処理を開始する(ステップ71)。   First, the CPU 12 initializes the counter n of the key frame output process to 0 (step 70). Subsequently, the CPU 12 starts a process of sequentially outputting and displaying the extracted key frames to the photo frames in accordance with, for example, the priority order in the embodiment (step 71).

続いてCPU12は、HDD8等から、上記日時(年も含む)情報を取得し(ステップ72)、当該日時情報と、内蔵クロックが示す現在の日時とを比較する(ステップ73)。そしてCPU12は、現在の日時が、上記記憶された日時情報に対応する特定の日時が到来したと判断した場合(ステップ73のYes)、それまでフォトフレーム200に表示されていた画像を変更する処理を実行する(ステップ74)。この場合における日時情報は、例えば、ユーザが毎日買物に出かける時間等、ユーザの習慣的な行動が開始されるであろう日時(時刻)である。   Subsequently, the CPU 12 acquires the date and time (including year) information from the HDD 8 or the like (step 72), and compares the date and time information with the current date and time indicated by the built-in clock (step 73). When the CPU 12 determines that the current date / time has reached a specific date / time corresponding to the stored date / time information (Yes in step 73), the CPU 12 changes the image displayed on the photo frame 200 until then. Is executed (step 74). The date and time information in this case is the date and time (time) at which the user's habitual behavior will start, such as the time when the user goes out for shopping every day.

図7は、当該画像変更処理の具体的な流れを示したフローチャートである。同図に示すように、CPU12は、例えば上記買物等の参考になるスーパーマーケットのチラシ等の生活情報とともに、キーフレームk(n%m)に関連する関連情報を、通信部11によりネットワーク50上から検索する(ステップ731)。   FIG. 7 is a flowchart showing a specific flow of the image change process. As shown in the figure, the CPU 12 sends related information related to the key frame k (n% m) from the network 50 by the communication unit 11 together with life information such as a supermarket flyer which is a reference for the shopping, for example. Search is performed (step 731).

ここでCPU12は、mod m(モジュロm)の演算処理により、キーフレーム出力処理のカウンタnがオーバーフローするのを防いでいる。すなわち、当該モジュロ演算の結果は、nがmで割り切れる場合は0、割り切れない場合はその余りとなるため、キーフレームが検出された数(m)だけ、当該キーフレームの関連情報の検索処理及びその後の出力(表示)処理が繰り返されることとなる。   Here, the CPU 12 prevents the counter n of the key frame output process from overflowing by the arithmetic process of mod m (modulo m). That is, the result of the modulo operation is 0 when n is divisible by m, and the remainder when it is not divisible, so that the number of detected key frames (m) is equal to the number of detected key frames. Subsequent output (display) processing is repeated.

CPU12は、関連情報が存在する場合(ステップ732のYes)、例えば上記チラシ等の生活情報に続いて、当該関連情報を表示し(ステップ733)、存在しない場合(No)、現状のキーフレーム表示を維持する(ステップ734)。当該関連情報は、上記日時情報に関連し、かつ、それまでフォトフレーム200で表示されていたキーフレームに関連する情報である。   When the related information exists (Yes in Step 732), the CPU 12 displays the related information following the life information such as the leaflet (Step 733). When the related information does not exist (No), the current key frame display is displayed. Is maintained (step 734). The related information is information related to the date and time information and related to the key frame that has been displayed in the photo frame 200 until then.

当該検索においては、例えばそれまでフォトフレーム200に表示されていたキーフレームに含まれるオブジェクト名がキーワードとして検索される。この検索にあたり、CPU12は、上記キーフレーム抽出の際、当該オブジェクト名を記憶する。またCPU12は、当該検索エンジンとして利用するウェブサイトのURL等も記憶している。またCPU12は、キーワードによらずに、当該オブジェクトを含むキーフレームそのものをネットワーク50上の検索エンジンへ送信して、画像検索により関連情報を取得してもよい。   In the search, for example, an object name included in a key frame that has been displayed in the photo frame 200 is searched as a keyword. In this search, the CPU 12 stores the object name when extracting the key frame. The CPU 12 also stores the URL of a website used as the search engine. Further, the CPU 12 may transmit the key frame itself including the object to the search engine on the network 50 regardless of the keyword, and acquire related information by image search.

CPU12は、以上の処理を、上記カウンタnにしたがってキーフレームの数だけ繰り返し(ステップ76)、ユーザから表示終了指示があった場合(ステップ75のYes)には処理を終了する。   The CPU 12 repeats the above processing by the number of key frames in accordance with the counter n (step 76), and ends the processing when a display end instruction is issued from the user (Yes in step 75).

図8は、当該画像変更処理としての関連情報の表示処理を概念的に示した図である。同図に示すように、例えばキーフレームとして赤ん坊を含むフレームが抽出され表示された場合、CPU12は、上記食料品のチラシ等の生活情報に加えて、当該フレームの関連情報として、例えばオムツ等のベビー用品に関する広告情報(特売情報)を検索して表示させる。またキーフレームとしてペットの犬を含むフレームが抽出され表示された場合、CPU12は、関連情報として、ペットフードに関する広告情報を検索して表示させる。さらに、CPU12は、広告情報のみならず、当該犬の新たな散歩コース設定の参考となるような地域情報(地図情報)を検索して表示させてもよい。   FIG. 8 is a diagram conceptually showing related information display processing as the image change processing. As shown in the figure, when a frame including a baby is extracted and displayed, for example, as a key frame, the CPU 12 adds information related to the frame, such as a diaper, in addition to life information such as the above-mentioned grocery flyer. Search and display advertisement information (sale information) about baby items. When a frame including a pet dog is extracted and displayed as a key frame, the CPU 12 searches and displays advertisement information related to pet food as related information. Further, the CPU 12 may search and display not only advertisement information but also area information (map information) that can be used as a reference for setting a new walk course for the dog.

またCPU12は、例えば12:00、15:00等の定時刻が到来した場合には、キーフレームに替えて時計の画像を表示させてもよい。当該時計の画像は予め例えばHDD8等に保存されている。   Further, the CPU 12 may display a clock image instead of the key frame when a fixed time such as 12:00, 15:00, or the like has come. The clock image is stored in advance in, for example, the HDD 8 or the like.

上記生活情報及び関連情報が所定時間または所定回数表示された後、CPU12は、再びキーフレームの表示処理へと戻る。   After the life information and the related information are displayed for a predetermined time or a predetermined number of times, the CPU 12 returns to the key frame display process again.

以上の処理により、PVR100は、動画像コンテンツから抽出したキーフレームを単にフォトフレーム上で閲覧させるのみならず、当該キーフレームに含まれるオブジェクトの関連情報を、ユーザが普段買物へ行く時間等、適切なタイミングで提供できる。したがってユーザは当該関連情報を参考にして、買物等のその後の行動を効率よく実行することができる。   Through the above processing, the PVR 100 not only allows the key frame extracted from the moving image content to be browsed on the photo frame, but also the relevant information of the object included in the key frame, such as the time when the user usually goes to shopping, etc. Can be provided at any time. Therefore, the user can efficiently execute subsequent actions such as shopping with reference to the related information.

(変形例2)
上記変形例1においては、記憶された日時情報に対応する特定の日時が到来したときに各キーフレームの関連情報が検索され、それらが同じ時間帯にキーフレーム毎に繰り返し表示された。しかし、本変形例では、PVR100は、いずれかのキーフレームの関連情報が存在するか否かを定期的に確認し、当該確認時において関連情報が存在する場合には、当該関連情報を表示することとしている。図9は、本変形例におけるPVR100の画像変更処理の流れを示したフローチャートである。
(Modification 2)
In the first modification, related information of each key frame is retrieved when a specific date corresponding to the stored date information arrives, and these are repeatedly displayed for each key frame in the same time zone. However, in this modification, the PVR 100 periodically checks whether or not related information of any key frame exists, and displays related information when related information exists at the time of the confirmation. I am going to do that. FIG. 9 is a flowchart showing the flow of image change processing of the PVR 100 in this modification.

同図に示すように、本変形例におけるPVR100の処理は、ステップ91及び94の具体的処理を除いて上記変形例1と同様である。図10は当該ステップ91の具体的処理の流れを示した図であり、図11は当該ステップ94の具体的処理の流れを示したフローチャートである。   As shown in the figure, the processing of the PVR 100 in this modification is the same as that of Modification 1 except for the specific processes in Steps 91 and 94. FIG. 10 is a flowchart showing a specific processing flow of step 91, and FIG. 11 is a flowchart showing a specific processing flow of step 94.

図10に示すように、CPU12は、フォトフレーム200へのフレーム出力処理の開始時に、抽出されたキーフレームの数に応じた関連情報の検出処理のカウンタtを0に初期設定し、また関連情報の検出フラグfを0に設定する(ステップ911)。
続いてCPU12は、t番目のキーフレームk(t)について関連情報を検索し(ステップ912)、関連情報が存在する場合(ステップ913のYes)には、上記検出フラグfを1に設定する(ステップ914)。その上でCPU12は、当該関連情報が検索されたキーフレームk(t)をフォトフレーム200へ出力し表示させる(ステップ915)。
一方、関連情報が存在しなかった場合(ステップ913のNo)、CPU12は、カウンタtをインクリメントし(ステップ916)、tが抽出キーフレームの総数m未満であれば(ステップ917のNo)、次のキーフレームについての関連情報を検索する(ステップ912)。またt>mである場合(ステップ917のYes)には、抽出キーフレームを、上記モジュロ演算により順次繰り返し表示する(ステップ918)。
As shown in FIG. 10, at the start of the frame output process to the photo frame 200, the CPU 12 initializes the counter t of the related information detection process according to the number of extracted key frames to 0, and the related information Is set to 0 (step 911).
Subsequently, the CPU 12 searches for related information for the t-th key frame k (t) (step 912). If the related information exists (Yes in step 913), the CPU 12 sets the detection flag f to 1 ( Step 914). Then, the CPU 12 outputs and displays the key frame k (t) for which the relevant information is retrieved to the photo frame 200 (step 915).
On the other hand, if the related information does not exist (No in Step 913), the CPU 12 increments the counter t (Step 916), and if t is less than the total number m of extracted key frames (No in Step 917), the next step The related information about the key frame is searched (step 912). If t> m (Yes in step 917), the extracted key frames are sequentially and repeatedly displayed by the modulo calculation (step 918).

図11に示すように、CPU12は、特定の定期的な日時が到来したときに(ステップ93)、そのときに表示されているキーフレームについて関連情報が存在するか(検出フラグがオンか否か)を判断し(ステップ941)、存在する場合(Yes)には当該関連情報を表示し(ステップ942)、存在しない場合(No)にはそれまでのキーフレームの表示を維持する(ステップ943)。   As shown in FIG. 11, when a specific periodic date and time has arrived (step 93), the CPU 12 determines whether there is related information for the key frame displayed at that time (whether the detection flag is on or not). ) (Step 941), if it exists (Yes), the relevant information is displayed (step 942). If it does not exist (No), the display of the previous key frame is maintained (step 943). .

以上の処理により、キーフレームの関連情報の有無が定期的に確認され、関連情報が存在する場合にはその都度表示されるため、ユーザは、いずれかのキーフレームについて常に最新の関連情報を閲覧することができる。   Through the above processing, the presence / absence of related information of key frames is periodically checked and displayed whenever there is related information. Therefore, the user always browses the latest related information for any key frame. can do.

[その他]
上述の実施形態においては、本発明をPVR100に適用した例を示した。しかし、本発明は、PVRに限らず、例えばPC、携帯電話機、その他のAV機器等、動画像コンテンツを記憶可能な装置であればいかなる電子機器にも適用可能である。また、上記ビデオカメラ300から、PVR100等の他の機器を介さずに直接フォトフレーム200へ静止画像が出力されてもよい。さらに、ユーザが撮影した動画像コンテンツのみならず、例えば放送番組等の動画像コンテンツからキーフレームが抽出されてフォトフレーム200へ出力されてもよい。
[Others]
In the above-mentioned embodiment, the example which applied this invention to PVR100 was shown. However, the present invention is not limited to PVR, and can be applied to any electronic device as long as it can store moving image content, such as a PC, a mobile phone, and other AV devices. Further, a still image may be directly output from the video camera 300 to the photo frame 200 without passing through another device such as the PVR 100. Furthermore, not only the moving image content photographed by the user but also the key frame may be extracted from the moving image content such as a broadcast program and output to the photo frame 200.

上述の実施形態においては、画像変更処理によりフォトフレームに出力される関連情報は、商品の広告情報等であったが、例えば、キーフレームに関連するニュース情報、番組情報等、その他の関連情報が検索され出力されてもよい。これによりユーザはその後の行動の指針を得ることができる。   In the above-described embodiment, the related information output to the photo frame by the image change process is the advertisement information of the product. For example, other related information such as news information and program information related to the key frame is included. It may be retrieved and output. Thus, the user can obtain a guideline for subsequent actions.

上述の実施形態においては、キーフレームとは異なる画像を出力することで画像変更処理が実行されたが、例えば、特定時刻が到来したときに、当該キーフレームが拡大または縮小される等、何らかの変化を与えることで画像変更処理を実行してもよい。これによっても、ユーザは当該キーフレームに関する何らかのイベントや予定等を思い出すことができる。   In the above-described embodiment, the image changing process is executed by outputting an image different from the key frame. However, for example, when the specific time arrives, the key frame is enlarged or reduced. The image change process may be executed by giving This also allows the user to remember any event or schedule related to the key frame.

11…通信部
12…CPU
19…無線インタフェース
20…外部インタフェース
21…特徴抽出部
50…ネットワーク
100…PVR
200…デジタルフォトフレーム
211…キーフレーム抽出部
212…画像特徴検出部
213…画像メモリ
214…音声特徴抽出部
215…音声特徴検出部
216…音声メモリ
300…ビデオカメラ
300…デジタルカメラ
400…携帯端末
11. Communication unit 12 ... CPU
DESCRIPTION OF SYMBOLS 19 ... Wireless interface 20 ... External interface 21 ... Feature extraction part 50 ... Network 100 ... PVR
DESCRIPTION OF SYMBOLS 200 ... Digital photo frame 211 ... Key frame extraction part 212 ... Image feature detection part 213 ... Image memory 214 ... Audio | voice feature extraction part 215 ... Audio | voice feature detection part 216 ... Audio | voice memory 300 ... Video camera 300 ... Digital camera 400 ... Portable terminal

Claims (7)

動画像と、所定の日時情報とを記憶する記憶部と、
デジタルフォトフレームと通信する第1の通信部と、
前記動画像から所定の特徴を抽出し、当該抽出された特徴を基に第1の静止画像を抽出し、前記第1の静止画像を表示させるために、前記第1の通信部により当該第1の静止画像を前記デジタルフォトフレームへ出力し、前記日時情報に対応する日時が到来したときに、当該日時情報に関連する第2の静止画像を取得し、前記第1の静止画像を前記第2の静止画像に変化させるために、前記第1の通信部により当該第2の静止画像を前記デジタルフォトフレームへ出力する制御部と
を具備する電子機器。
A storage unit for storing moving images and predetermined date and time information;
A first communication unit that communicates with the digital photo frame;
A first feature is extracted from the moving image, a first still image is extracted based on the extracted feature, and the first communication unit displays the first still image. Is output to the digital photo frame, and when the date and time corresponding to the date and time information arrives, a second still image related to the date and time information is obtained, and the first still image is acquired as the second image. An electronic device comprising: a control unit that outputs the second still image to the digital photo frame by the first communication unit in order to change to a still image.
請求項1に記載の電子機器であって、
前記日時情報は、前記動画像に含まれ得る特定のオブジェクトに関連する日時情報であり、
前記制御部は、前記動画像から前記特定のオブジェクトを認識して、当該特定のオブジェクトを含む静止画像を前記第2の静止画像として抽出し、当該特定のオブジェクトに関連する前記日時情報を基に、当該日時情報に対応する日時が到来したときに、前記第2の静止画像を前記第1の通信部により前記デジタルフォトフレームへ出力する
電子機器。
The electronic device according to claim 1,
The date and time information is date and time information related to a specific object that can be included in the moving image,
The control unit recognizes the specific object from the moving image, extracts a still image including the specific object as the second still image, and based on the date and time information related to the specific object. An electronic device that outputs the second still image to the digital photo frame by the first communication unit when the date and time corresponding to the date and time information arrives.
請求項2に記載の電子機器であって、
前記動画像は音声情報を有し、
前記デジタルフォトフレームは前記音声情報を出力可能であり、
前記制御部は、前記動画像から、前記抽出された第2の静止画像に含まれる特定のオブジェクトに関連する音声情報を抽出し、前記日時情報に対応する日時が到来したときに、当該抽出された音声情報を出力させるために、当該音声情報を前記デジタルフォトフレームへ出力する
電子機器。
The electronic device according to claim 2,
The moving image has audio information,
The digital photo frame can output the audio information;
The control unit extracts audio information related to a specific object included in the extracted second still image from the moving image, and extracts the audio information when the date and time corresponding to the date and time information arrives. An electronic device that outputs the audio information to the digital photo frame in order to output the audio information.
請求項1に記載の電子機器であって、
ネットワークに接続する第2の通信部をさらに具備し、
前記日時情報は、一日のうちの所定時刻であり、
前記制御部は、前記動画像から特定のオブジェクトを認識して、当該特定のオブジェクトを含む静止画像を前記第1の静止画像として抽出し、前記第1の静止画像に関連する関連情報を前記第2の通信部により前記ネットワーク上から検索及び受信し、前記所定時刻が到来したときに、当該受信された関連情報を、前記第2の静止画像として前記第1の通信部により前記デジタルフォトフレームへ出力する
電子機器。
The electronic device according to claim 1,
A second communication unit connected to the network;
The date and time information is a predetermined time of the day,
The control unit recognizes a specific object from the moving image, extracts a still image including the specific object as the first still image, and relates related information related to the first still image to the first image. When the predetermined time arrives, the received related information is retrieved and received as the second still image by the first communication unit to the digital photo frame. Output electronic equipment.
請求項4に記載の電子機器であって、
前記制御部は、前記第1の静止画像に含まれる前記オブジェクトに関連し、かつ、前記検索を実行する時が属する日に限って入手可能な商品の広告情報を前記関連情報として検索する
電子機器。
The electronic device according to claim 4,
The control unit searches for advertisement information of a product related to the object included in the first still image and available only on a day to which the time of executing the search belongs, as the related information. .
動画像と、所定の日時情報とを記憶し、
前記動画像から所定の特徴を抽出し、当該抽出された特徴を基に第1の静止画像を抽出し、
前記抽出された第1の静止画像を表示させるために、当該第1の静止画像をデジタルフォトフレームへ出力し、
前記日時情報に対応する日時が到来したときに、当該日時情報に関連する第2の静止画像を取得し、
前記第1の静止画像を前記第2の静止画像に変化させるために、当該第2の静止画像を前記デジタルフォトフレームへ出力する
画像出力方法。
Stores moving images and predetermined date and time information,
Extracting a predetermined feature from the moving image, extracting a first still image based on the extracted feature,
In order to display the extracted first still image, the first still image is output to a digital photo frame,
When the date and time corresponding to the date and time information has arrived, a second still image related to the date and time information is acquired,
An image output method for outputting the second still image to the digital photo frame in order to change the first still image to the second still image.
電子機器に、
動画像と、所定の日時情報とを記憶するステップと、
前記動画像から所定の特徴を抽出し、当該抽出された特徴を基に第1の静止画像を抽出するステップと、
前記抽出された第1の静止画像を表示させるために、当該第1の静止画像をデジタルフォトフレームへ出力するステップと、
前記日時情報に対応する日時が到来したときに、当該日時情報に関連する第2の静止画像を取得するステップと、
前記第1の静止画像を前記第2の静止画像に変化させるために、当該第2の静止画像を前記デジタルフォトフレームへ出力するステップと
を実行させるプログラム。
Electronic equipment,
Storing a moving image and predetermined date and time information;
Extracting a predetermined feature from the moving image and extracting a first still image based on the extracted feature;
Outputting the first still image to a digital photo frame to display the extracted first still image;
Obtaining a second still image related to the date and time information when the date and time corresponding to the date and time information has arrived;
Outputting the second still image to the digital photo frame in order to change the first still image to the second still image.
JP2009150918A 2009-06-25 2009-06-25 Electronic apparatus, image output method, and program Pending JP2011010007A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009150918A JP2011010007A (en) 2009-06-25 2009-06-25 Electronic apparatus, image output method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009150918A JP2011010007A (en) 2009-06-25 2009-06-25 Electronic apparatus, image output method, and program

Publications (1)

Publication Number Publication Date
JP2011010007A true JP2011010007A (en) 2011-01-13

Family

ID=43566159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009150918A Pending JP2011010007A (en) 2009-06-25 2009-06-25 Electronic apparatus, image output method, and program

Country Status (1)

Country Link
JP (1) JP2011010007A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012235304A (en) * 2011-04-28 2012-11-29 Toshiba Corp Electronic apparatus, image processing method, and program
JP2012249211A (en) * 2011-05-31 2012-12-13 Casio Comput Co Ltd Image file generating device, image file generating program and image file generating method
JP2012253792A (en) * 2012-07-27 2012-12-20 Toshiba Corp Electronic apparatus, image processing method and program
JP2013074551A (en) * 2011-09-28 2013-04-22 Casio Comput Co Ltd Image display apparatus and image display program
CN113128399A (en) * 2021-04-19 2021-07-16 重庆大学 Speech image key frame extraction method for emotion recognition

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11239322A (en) * 1997-11-24 1999-08-31 Hewlett Packard Co <Hp> Video browsing and viewing system
JP2000299829A (en) * 1999-04-13 2000-10-24 Canon Inc Image processing unit and its method
JP2006173984A (en) * 2004-12-15 2006-06-29 Nikon Corp Image reproducing apparatus and image reproducing system
JP2007086546A (en) * 2005-09-22 2007-04-05 Fujifilm Corp Advertisement printing device, advertisement printing method, and advertisement printing program
JP2007150548A (en) * 2005-11-25 2007-06-14 Funai Electric Co Ltd Video file reproducing apparatus
JP2007274030A (en) * 2006-03-30 2007-10-18 Casio Comput Co Ltd Image output device and method therefor
JP2008236469A (en) * 2007-03-22 2008-10-02 Pioneer Electronic Corp Content reproducing device and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11239322A (en) * 1997-11-24 1999-08-31 Hewlett Packard Co <Hp> Video browsing and viewing system
JP2000299829A (en) * 1999-04-13 2000-10-24 Canon Inc Image processing unit and its method
JP2006173984A (en) * 2004-12-15 2006-06-29 Nikon Corp Image reproducing apparatus and image reproducing system
JP2007086546A (en) * 2005-09-22 2007-04-05 Fujifilm Corp Advertisement printing device, advertisement printing method, and advertisement printing program
JP2007150548A (en) * 2005-11-25 2007-06-14 Funai Electric Co Ltd Video file reproducing apparatus
JP2007274030A (en) * 2006-03-30 2007-10-18 Casio Comput Co Ltd Image output device and method therefor
JP2008236469A (en) * 2007-03-22 2008-10-02 Pioneer Electronic Corp Content reproducing device and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012235304A (en) * 2011-04-28 2012-11-29 Toshiba Corp Electronic apparatus, image processing method, and program
JP2012249211A (en) * 2011-05-31 2012-12-13 Casio Comput Co Ltd Image file generating device, image file generating program and image file generating method
JP2013074551A (en) * 2011-09-28 2013-04-22 Casio Comput Co Ltd Image display apparatus and image display program
JP2012253792A (en) * 2012-07-27 2012-12-20 Toshiba Corp Electronic apparatus, image processing method and program
CN113128399A (en) * 2021-04-19 2021-07-16 重庆大学 Speech image key frame extraction method for emotion recognition

Similar Documents

Publication Publication Date Title
US9900498B2 (en) Glass-type terminal and method for controlling the same
CN101523392B (en) Personalized slide show generation
WO2017189046A1 (en) Automatic animation triggering from video
JP4742952B2 (en) Receiver and program
JP2009140051A (en) Information processor, information processing system, recommendation device, information processing method and storage medium
US20100121875A1 (en) Information processing apparatus, information processing method, and information processing program
US20220223181A1 (en) Method for synthesizing videos and electronic device therefor
TWI376948B (en) Method, device and storage medium for frame specification
JP5870742B2 (en) Information processing apparatus, system, and information processing method
JP2011223551A (en) Display device, display method, program, and recording medium
JP2011010007A (en) Electronic apparatus, image output method, and program
EP3343936A2 (en) Smart electronic device
US20030219708A1 (en) Presentation synthesizer
TW200910128A (en) Keyword extraction method
JP4768846B2 (en) Electronic apparatus and image display method
JP2011160215A (en) Broadcast receiver, method for providing point by the same, program of broadcast receiver, and computer readable recording medium
JP2007215046A (en) Information processor, information processing method, information processing program, and recording medium
KR20160097667A (en) Display apparatus and information providing method thereof
JP2010124319A (en) Event-calendar display apparatus, event-calendar display method, event-calendar display program, and event-information extraction apparatus
TW200841738A (en) Display apparatus having function of network link
JP4539848B2 (en) Program recording / reproducing apparatus and program recording / reproducing system
CN101523479A (en) Contents reproducing device, contents reproducing method, contents reproducing system, contents data transmitting device, contents data transmitting method, program, and recording medium
JP4723901B2 (en) Television display device
JP2006253984A (en) Image display control apparatus and program
CN109618231A (en) A kind of movie and television contents recommended method and system based on cold start-up

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130806