JP2011010007A - Electronic apparatus, image output method, and program - Google Patents
Electronic apparatus, image output method, and program Download PDFInfo
- Publication number
- JP2011010007A JP2011010007A JP2009150918A JP2009150918A JP2011010007A JP 2011010007 A JP2011010007 A JP 2011010007A JP 2009150918 A JP2009150918 A JP 2009150918A JP 2009150918 A JP2009150918 A JP 2009150918A JP 2011010007 A JP2011010007 A JP 2011010007A
- Authority
- JP
- Japan
- Prior art keywords
- still image
- date
- image
- information
- photo frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、例えばデジタルフォトフレーム等の表示装置に画像を出力して表示させることが可能な電子機器、当該電子機器における画像出力方法及びプログラムに関する。 The present invention relates to an electronic device that can output and display an image on a display device such as a digital photo frame, and an image output method and program in the electronic device.
従来から、紙媒体に印刷された写真を鑑賞するためのフォトフレーム(写真立て)に模して、デジタル画像を表示可能なデジタルフォトフレームが存在する。デジタルフォトフレームに関する先行文献としては以下のものが挙げられる。 Conventionally, there is a digital photo frame that can display a digital image, imitating a photo frame (photo frame) for viewing a photograph printed on a paper medium. The following documents can be cited as prior documents relating to digital photo frames.
しかしながら、従来のデジタルフォトフレームは、例えば自身に装着されたメモリカード等の記録媒体から、デジタルカメラ等で撮影された静止画像をランダムに読み出して、単にスライドショーするのが一般的である。したがって、デジタルフォトフレームは、デジタルカメラやコンピュータ等の機器を操作しなくても静止画像を表示できるということ以外の利点を有しない。またユーザは、デジタルフォトフレームにより表示される静止画像を鑑賞することで、例えば過去の出来事を思い出すことはできるが、それを現在または未来の生活と結びつけることはできない。 However, a conventional digital photo frame generally reads out still images taken by a digital camera or the like from a recording medium such as a memory card attached to the digital photo frame, and simply performs a slide show. Therefore, the digital photo frame has no advantage other than that a still image can be displayed without operating a device such as a digital camera or a computer. In addition, the user can, for example, recall past events by appreciating the still image displayed by the digital photo frame, but cannot associate it with the current or future life.
一方、例えばユーザがデジタルビデオカメラ等で撮影した動画像は、撮影後に一回鑑賞されると、それ以後は、特別なことが無い限り鑑賞されることはないため、せっかく撮影した動画像が無駄になっていた。 On the other hand, for example, if a moving image taken by a user with a digital video camera or the like is viewed once after shooting, then it will not be viewed unless there is something special. It was.
以上のような事情に鑑み、本発明の目的は、ビデオカメラ等で撮影された動画像を有効活用しながら、ユーザの現在または未来の生活に関連する静止画像をフォトフレームに表示させることが可能な電子機器、画像出力方法及びプログラムを提供することにある。 In view of the circumstances as described above, an object of the present invention is to display a still image related to a user's current or future life on a photo frame while effectively using a moving image taken by a video camera or the like. It is to provide an electronic device, an image output method, and a program.
上記目的を達成するため、本発明の一形態に係る電子機器は、記憶部と、第1の通信部と、制御部とを有する。上記記憶部は、動画像と、所定の日時情報とを記憶する。上記第1の通信部は、デジタルフォトフレームと通信する。上記制御部は、上記動画像から所定の特徴を抽出し、当該抽出された特徴を基に第1の静止画像を抽出し、上記第1の静止画像を表示させるために、前記第1の通信部により当該第1の静止画像を上記デジタルフォトフレームへ出力する。また当該制御部は、上記日時情報に対応する日時が到来したときに、当該日時情報に関連する第2の静止画像を取得し、上記第1の静止画像を上記第2の静止画像に変化させるために、上記第1の通信部により当該第2の静止画像を上記デジタルフォトフレームへ出力する。
この構成により、電子機器は、動画像から、特定のオブジェクトを含む第1の静止画像を抽出してデジタルフォトフレームに表示させることができるとともに、当該特定のオブジェクトに関連する日時に、当該第1の静止画像を第2の静止画像に変化させることができる。したがって電子機器は、フォトフレームの閲覧者に、動画像中の各シーンを静止画像として閲覧させるのみならず、特定の日時には、当該日時に関連する情報を思い起こさせ、ユーザの現在・未来の行動の指針とすることができる。
ここで動画像とは、例えばデジタルビデオカメラ等により撮影された動画像等であり、所定の特徴とは、例えばパン、チルト、ズーム等の動き特徴や、人物(顔)、動物、建物等のオブジェクトを示す特徴等である。電子機器とは、例えばデジタルビデオカメラ、記録再生装置、その他のAV機器、PC(Personal Computer)、携帯電話機等である。
In order to achieve the above object, an electronic apparatus according to an embodiment of the present invention includes a storage unit, a first communication unit, and a control unit. The storage unit stores a moving image and predetermined date and time information. The first communication unit communicates with a digital photo frame. The control unit extracts a predetermined feature from the moving image, extracts a first still image based on the extracted feature, and displays the first still image in order to display the first still image. The unit outputs the first still image to the digital photo frame. The control unit acquires a second still image related to the date information when the date corresponding to the date information arrives, and changes the first still image to the second still image. Therefore, the second communication image is output to the digital photo frame by the first communication unit.
With this configuration, the electronic device can extract the first still image including the specific object from the moving image and display the first still image on the digital photo frame, and at the date and time related to the specific object, The still image can be changed to the second still image. Therefore, the electronic device not only allows the viewer of the photo frame to browse each scene in the moving image as a still image, but also at a specific date and time, reminds the user of information related to the date and time, and the user's current and future behavior Can be used as a guideline.
Here, the moving image is, for example, a moving image taken by a digital video camera or the like, and the predetermined features include, for example, moving features such as pan, tilt, and zoom, and people (faces), animals, buildings, and the like. This is a feature indicating an object. The electronic device is, for example, a digital video camera, a recording / reproducing apparatus, other AV devices, a PC (Personal Computer), a mobile phone, or the like.
上記電子機器において、上記日時情報は、上記動画像に含まれ得る特定のオブジェクトに関連する日時情報であってもよい。また上記制御部は、上記動画像から上記特定のオブジェクトを認識して、当該特定のオブジェクトを含む静止画像を上記第2の静止画像として抽出してもよい。そして当該制御部は、当該特定のオブジェクトに関連する上記日時情報を基に、当該日時情報に対応する日時が到来したときに、上記第2の静止画像を上記第1の通信部により上記デジタルフォトフレームへ出力してもよい。
これにより電子機器は、動画像から抽出された第2の静止画像を、当該第2の静止画像中のオブジェクトに関連する日時にデジタルフォトフレームに表示させ、日時との関係で当該オブジェクトに関するイベントをユーザに思い出させることができる。例えば、オブジェクトが子供であり、日時情報として当該子供の誕生日が記憶されていれば、フォトフレームには、当該誕生日以外の日時には第1の静止画像として当該子供に関連しない画像がフォトフレームに表示されていても、当該日時が到来したときに、第2の静止画像としての子供の画像が表示される。したがってユーザは、当該日時に当該子供の画像を閲覧することで、子供の誕生日を思い出すことができる。
この場合、上記動画像は音声情報を有し、上記デジタルフォトフレームは当該音声情報を出力可能であってもよい。この場合上記制御部は、上記動画像から、上記抽出された第2の静止画像に含まれる特定のオブジェクトに関連する音声情報を抽出してもよい。そして当該制御部は、上記日時情報に対応する日時が到来したときに、当該抽出された音声情報を出力させるために、当該音声情報を上記デジタルフォトフレームへ出力してもよい。
これにより電子機器は、特定の日時に、当該特定の日時に関連する静止画像をフォトフレームに表示させるとともに、当該特定の日時に関連する音声(音楽)を出力させることができ、当該静止画像を、フォトフレーム上でユーザにより印象深く提供することができる。
In the electronic device, the date information may be date information related to a specific object that can be included in the moving image. The control unit may recognize the specific object from the moving image and extract a still image including the specific object as the second still image. Then, based on the date and time information related to the specific object, the control unit transmits the second still image to the digital photo by the first communication unit when the date and time corresponding to the date and time information arrives. You may output to a frame.
Thus, the electronic device displays the second still image extracted from the moving image on the digital photo frame at the date and time related to the object in the second still image, and the event related to the object is related to the date and time. Remind users. For example, if the object is a child and the date of birth of the child is stored as date / time information, the photo frame includes an image not related to the child as a first still image at a date / time other than the birthday. Even when displayed, the child image as the second still image is displayed when the date and time arrives. Therefore, the user can recall the child's birthday by browsing the child image at the date and time.
In this case, the moving image may have audio information, and the digital photo frame may be able to output the audio information. In this case, the control unit may extract audio information related to a specific object included in the extracted second still image from the moving image. The control unit may output the audio information to the digital photo frame in order to output the extracted audio information when the date and time corresponding to the date and time information arrives.
Thus, the electronic device can display a still image related to the specific date and time on the photo frame at a specific date and output sound (music) related to the specific date and time. It can be provided more impressively by the user on the photo frame.
上記電子機器は、ネットワークに接続する第2の通信部をさらに具備してもよい。この場合上記日時情報は、一日のうちの所定時刻であってもよい。この場合上記制御部は、上記動画像から特定のオブジェクトを認識して、当該特定のオブジェクトを含む静止画像を上記第1の静止画像として抽出してもよい。そして上記制御部は、上記第1の静止画像に関連する関連情報を上記第2の通信部により上記ネットワーク上から検索及び受信し、上記所定時刻が到来したときに、当該受信された関連情報を、上記第2の静止画像として上記第1の通信部により上記デジタルフォトフレームへ出力してもよい。
これにより電子機器は、動画像から抽出した静止画像に含まれるオブジェクトを単にフォトフレーム上で閲覧させるのみならず、当該オブジェクトに関連する情報を、タイミングよく提供することができ、ユーザの利便性を向上させることができる。例えばオブジェクトがユーザのペットである場合、ペットフードに関する情報を、例えば午後4時等、ユーザが買物に出かけるであろう時刻に表示させることができる。
The electronic device may further include a second communication unit connected to the network. In this case, the date information may be a predetermined time of the day. In this case, the control unit may recognize a specific object from the moving image and extract a still image including the specific object as the first still image. The control unit retrieves and receives related information related to the first still image from the network by the second communication unit, and when the predetermined time arrives, the received related information The second still image may be output to the digital photo frame by the first communication unit.
As a result, the electronic device not only allows the object included in the still image extracted from the moving image to be browsed on the photo frame but also provides information related to the object in a timely manner. Can be improved. For example, if the object is a user's pet, information about pet food can be displayed at a time when the user will go shopping, such as at 4 pm.
また上記制御部は、上記第1の静止画像に含まれる上記オブジェクトに関連し、かつ、上記検索を実行する時が属する日に限って入手可能な商品の広告情報を上記関連情報として検索してもよい。
これにより電子機器は、所定時刻に関連情報をフォトフレーム上で表示させることで、当該関連情報を基に、ユーザの毎日の生活習慣において採るべき行動を喚起したり、当該行動における指針を提供したりすることができる。例えば、ユーザが毎日午後4時にスーパーマーケットへ買物に行く場合、電子機器は、当該スーパーマーケットでその日に売り出される商品の広告(チラシ)を関連情報として検索して表示させることができる。
In addition, the control unit searches for advertisement information of a product related to the object included in the first still image and available only on a day to which the time of executing the search belongs as the related information. Also good.
As a result, the electronic device displays relevant information on the photo frame at a predetermined time, thereby invoking actions to be taken in the user's daily lifestyle based on the relevant information and providing guidelines on the actions. Can be. For example, when a user goes to a supermarket for shopping at 4 pm every day, the electronic device can search and display advertisements (flyers) of products for sale on that day in the supermarket as related information.
本発明の他の形態に係る画像出力方法は、動画像と、所定の日時情報とを記憶することを含む。上記動画像からは、所定の特徴が抽出され、当該抽出された特徴を基に第1の静止画像が抽出される。当該抽出された第1の静止画像は、当該第1の静止画像を表示させるためにデジタルフォトフレームへ出力される。そして、上記日時情報に対応する日時が到来したときに、当該日時情報に関連する第2の静止画像が取得される。当該第2の静止画像は、上記第1の静止画像を上記第2の静止画像に変化させるために、上記デジタルフォトフレームへ出力される。 An image output method according to another aspect of the present invention includes storing a moving image and predetermined date / time information. A predetermined feature is extracted from the moving image, and a first still image is extracted based on the extracted feature. The extracted first still image is output to a digital photo frame in order to display the first still image. Then, when the date corresponding to the date information arrives, a second still image related to the date information is acquired. The second still image is output to the digital photo frame in order to change the first still image to the second still image.
本発明のまた別の形態に係るプログラムは、電子機器に、記憶ステップと、抽出ステップと、第1の出力ステップと、取得ステップと、第2の出力ステップとを有する。上記記憶ステップは、動画像と、所定の日時情報とを記憶する。上記抽出ステップは、上記動画像から所定の特徴を抽出し、当該抽出された特徴を基に第1の静止画像を抽出する。上記第1の出力ステップは、上記抽出された第1の静止画像を表示させるために、当該第1の静止画像をデジタルフォトフレームへ出力する。上記取得ステップは、上記日時情報に対応する日時が到来したときに、当該日時情報に関連する第2の静止画像を取得する。上記第2の出力ステップは、上記第1の静止画像を上記第2の静止画像に変化させるために、当該第2の静止画像を上記デジタルフォトフレームへ出力する。 A program according to still another aspect of the present invention includes a storage step, an extraction step, a first output step, an acquisition step, and a second output step in the electronic device. The storing step stores a moving image and predetermined date / time information. The extraction step extracts a predetermined feature from the moving image and extracts a first still image based on the extracted feature. The first output step outputs the first still image to a digital photo frame in order to display the extracted first still image. The acquisition step acquires a second still image related to the date information when the date corresponding to the date information arrives. The second output step outputs the second still image to the digital photo frame in order to change the first still image to the second still image.
以上のように、本発明によれば、ビデオカメラ等で撮影された動画像を有効活用しながら、ユーザの現在または未来の生活に関連する静止画像をフォトフレームに表示させることができる。 As described above, according to the present invention, a still image related to a user's current or future life can be displayed on a photo frame while effectively using a moving image taken by a video camera or the like.
以下、図面を参照しながら、本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[PVRの概要]
図1は、本発明の一実施形態における画像出力システムの概要を示す図である。
同図に示すように、PVR(Personal Video Recorder)100は、フォトフレーム200、ビデオカメラ300、携帯端末400と有線または無線により通信可能であり、また例えばインターネット等のネットワーク50にも接続可能である。
[Outline of PVR]
FIG. 1 is a diagram showing an outline of an image output system according to an embodiment of the present invention.
As shown in the figure, a PVR (Personal Video Recorder) 100 can communicate with a
PVR100は、ビデオカメラ300に記憶された、ユーザが撮影した動画像コンテンツをビデオカメラ300から受信して記憶している。またPVR100は、当該動画像コンテンツに含まれるタイムコードも日時情報として記憶している。さらにPVR100は、携帯端末からユーザのスケジュール情報を受信し、当該スケジュール情報を日時情報として記憶している。
The
PVR100は、当該動画像コンテンツから静止画像を抽出し、当該静止画像をデジタルフォトフレーム200へ出力し表示させる。またPVR100は、上記日時情報を基に、デジタルフォトフレーム200において表示された静止画像を他の静止画像へと変化させることが可能である。当該他の静止画像には、ネットワーク50を介して受信されるものも含まれる。さらにPVR100は、静止画像とともに、音声情報もデジタルフォトフレーム200へ送信し出力させることが可能である。
The
デジタルフォトフレーム200は、フレーム201、LCD(Liquid Crystal Display)202及び図示しないUSB(Universal Serial Bus)インタフェース、無線LAN、Bluetooth(登録商標)等の通信インタフェースを有する。デジタルフォトフレーム200(以下、単にフォトフレーム200ともいう)は、当該通信インタフェースにより、PVR100から出力された静止画像を受信し、当該静止画像を上記LCD202により表示することが可能である。またデジタルフォトフレーム200は、図示しないスピーカを有し、同様にPVR100から受信した音声情報を出力することも可能である。
The
[PVRのハードウェア構成]
図2は、上記PVR100のハードウェア構成を示す図である。
同図に示すように、このPVR100は、デジタルチューナ1、復調部2、デマルチプレクサ3、デコーダ4、記録再生部5、HDD(Hard Disk Drive)8、光ディスクドライブ9、通信部11を有する。またPVR100は、CPU(Central Processing Unit)12、フラッシュメモリ13、RAM(Random Access Memory)14を有する。さらにPVR100は、操作入力部15、グラフィック制御部16、映像D/A(Digital/Analog)コンバータ17、音声D/A(Digital/Analog)コンバータ18、無線インタフェース(I/F)19、外部インタフェース20及び特徴抽出部21を有する。
[Hardware configuration of PVR]
FIG. 2 is a diagram showing a hardware configuration of the
As shown in the figure, the
デジタルチューナ1は、CPU12の制御に従って、アンテナ30を介してデジタル放送の特定のチャンネルを選局して、番組のデータを含む放送信号を受信する。復調部2は、変調された当該放送信号を復調する。
Under the control of the
デマルチプレクサ3は、多重化された放送信号を、映像信号と音声信号とに分離し、デコーダ4へ供給する。またデマルチプレクサ3は、分離した各信号を、特徴抽出部21へも供給可能である。デコーダ4は、デマルチプレクサ3で分離された映像信号及び音声信号をそれぞれデコードする。デコードされた各信号は記録再生部5へ供給される。
The
記録再生部5は、記録部6及び再生部7を有する。記録部6は、デコーダ4によりデコードされ入力された映像信号及び音声信号を一時的に蓄積して、タイミングやデータ量を制御しながらHDD8や光ディスクドライブ9に出力して記録させる。また記録部6は、HDD8に記録されたコンテンツを読み出して光ディスクドライブ9に出力し、光ディスク10に記録させることも可能である。再生部7は、HDD8や光ディスク10に記録された映像コンテンツの映像信号及び音声信号を読み出し、タイミングやデータ量を制御しながらデコーダ4へ出力して再生させる。
The recording / reproducing
HDD8は、デジタルチューナ1を介して受信した番組や、通信部11によりインターネット等のネットワーク50を介して受信される種々のコンテンツを内蔵のハードディスクに記憶する。またHDD8は、上記デジタルカメラ300や携帯端末400等から、外部インタフェース20等を介して入力した上記動画像コンテンツ及び上記日時情報も記憶する。日時情報としては、例えば、特定の人物に関するイベント(誕生日、記念日等)や、ユーザが経験した過去の出来事(旅行、結婚式等)の日付等がある。この日時情報は、上記イベントや出来事を識別する情報とそれぞれ対応付けられて記憶される。さらにHDD8は、動画像コンテンツから特定のオブジェクト(例えば顔)を認識するための学習用データも記憶する。これらの記憶されたコンテンツが再生される際には、HDD8は、これらのデータを上記ハードディスクから読み出し、記録再生部5へ出力する。
The
またHDD8は、アプリケーション等の各種プログラム、その他のデータ等を記憶する場合もある。これらのプログラムやデータは、それらの実行時及び参照時に、CPU12の指令によりHDD8から読み出され、RAM14へ展開される。
The
光ディスクドライブ9は、上記HDD8と同様に、当該装着された光ディスク10に上記番組コンテンツ等の各種データを記録し、また記録されたデータを読み出すことが可能である。また上記各種プログラムは、これら光ディスク10等の可般性の記録媒体に記録され、光ディスクドライブ9によりPVR100にインストールされてもよい。
Similar to the
通信部11は、上記ネットワーク50に接続してTCP/IP(Transmission Control Protocol / Internet Protocol)等のプロトコルによりネットワーク50上の他の装置とデータのやり取りを行うためのネットワークインタフェースである。通信部11により受信されたデータが多重化されている場合、デマルチプレクサ3に供給される。また受信されたデータのうち少なくとも一部は、必要に応じて特徴抽出部21にも供給される。
The
無線インタフェース19は、例えば無線LAN、Bluetooth(登録商標)等の無線通信規格に準じたモジュールを有し、フォトフレーム200へ無線により静止画像や音声情報を送信可能である。
The
外部インタフェース20は、例えばUSBインタフェース等からなり、上記ビデオカメラ300から動画像コンテンツを受信したり、携帯端末400からスケジュール情報を受信したりする。当該動画像コンテンツやスケジュール情報は、上記無線インタフェース19を介してビデオカメラ300及び携帯端末400から受信されても構わない。
The
CPU12は、必要に応じてRAM14等にアクセスし、記録再生部5によるデータの記録及び再生処理等、PVR100の各ブロックの処理を統括的に制御する。
The
フラッシュメモリ13は、例えばNAND型のものであり、CPU12に実行させるOS、プログラムや各種パラメータなどのファームウェアが固定的に記憶されている不揮発性のメモリである。またフラッシュメモリ13は、動画像コンテンツからの静止画像及び音声情報の抽出処理及びフォトフレーム200へ出力する静止画像及び音声情報の変更処理等に用いるプログラム、その他の各種プログラム、上記EPGデータ等の各種データを記憶する。
The
RAM14は、CPU12の作業用領域等として用いられ、上記静止画像及び音声情報の抽出処理や変更処理の最中に、OSやプログラム、処理データ等を一時的に保持するメモリである。
The
操作入力部15は、例えば複数のキーを有するリモートコントローラ22(以下、リモコン22と称する)から、ユーザの操作による各種設定値や指令を入力してCPU12へ出力する。もちろん、操作入力部15は、リモコン22によらずに、PVR100に接続されたキーボードやマウス、PVR100に実装されたスイッチ等で構成されていても構わない。
The
グラフィック制御部16は、デコーダ4から出力された映像信号やCPU12から出力されるその他の映像データにOSD(On Screen Display)処理等のグラフィック処理を施し、例えばテレビジョン装置(TV)等の表示装置に表示させるための映像信号を生成する。
The
映像D/Aコンバータ17は、上記グラフィック制御部16から入力されたデジタル映像信号をアナログ映像信号に変換して、表示装置へ出力する。
The video D /
音声D/Aコンバータ18は、上記デコーダ4から入力されたデジタル音声信号をアナログ音声信号に変換して、TV等へ出力する。
The audio D /
特徴抽出部21は、上記ビデオカメラ300から受信して記憶した動画像コンテンツから、所定の映像特徴及び音声特徴を抽出し、当該各特徴を基に、フォトフレーム200へ出力するための静止画像及び音声情報を抽出する。所定の映像特徴とは、例えばパン、チルト、ズーム等の動き特徴や、人物(顔)、動物、建物等のオブジェクトを示す特徴等である。所定の音声特徴とは、例えば人の声を示す特徴、より具体的には音声パワーの継続時間を示す特徴等である。
The
[特徴抽出部の構成]
図3は、PVR100の上記特徴抽出部21の構成を示した図である。
同図に示すように、特徴抽出部21は、画像に関する処理を行うブロックとして、キーフレーム抽出部211、画像特徴検出部212及び画像メモリ213を有する。また特徴抽出部21は、音声に関する処理を行うブロックとして、音声特徴抽出部214、音声特徴検出部215及び音声メモリ216を有する。
[Configuration of Feature Extraction Unit]
FIG. 3 is a diagram illustrating a configuration of the
As shown in the figure, the
ユーザは、例えばリモコン22により、PVR100の各動作モード(放送番組視聴モード、録画番組視聴モード等)のうち、PVR100に記憶された動画像コンテンツから抽出される静止画像をフォトフレーム200に表示するモードを選択する。当該モード選択操作が入力されると、操作入力部15を介して当該モード選択情報がCPU12へ伝えられ、動画像コンテンツからの特徴抽出処理が開始される。
The user uses, for example, the
CPU12は、HDD8に記憶されたコンテンツのうち、ビデオカメラ300から転送された動画像コンテンツを特徴抽出部21へ入力する。当該動画像コンテンツのうち画像データは、キーフレーム抽出部211及び画像特徴検出部212へ入力される。
The
画像特徴検出部212は、動画像コンテンツから、例えばパン、チルト、ズーム等のカメラ特徴や、オブジェクト(顔等)等の画像特徴を検出し、その結果をCPU12へ伝える。CPU12は、当該検出結果を基に、動画像コンテンツから、画像特徴が抽出されたフレームをキーフレームとして抽出するようにキーフレーム抽出部211を制御する。抽出されたキーフレームは、画像メモリ213へ蓄積され、後述の処理によりフォトフレーム200へ出力される。
The image
ここで、カメラ特徴やオブジェクトが画像特徴として抽出されるのは、カメラ特徴区間はユーザが意図してカメラを操作して撮影した区間であるため、ユーザにとって重要なシーンであると考えられ、また顔等のオブジェクトはユーザの注目の的となりやすいためである。PVR100は、これらの特徴を含む静止画像がフォトフレーム200へ出力し表示させることで、ユーザにとって印象の強い画像を閲覧させることができる。
Here, camera features and objects are extracted as image features because the camera feature section is a section where the user intentionally operates the camera and is taken as an important feature for the user. This is because an object such as a face is likely to be the focus of user attention. The
音声特徴検出部215は、動画像コンテンツの音声データのうち、例えば上記キーフレームの前後区間の音声であって、所定レベル以上のパワーを有する音声を音声特徴として検出し、検出結果をCPU12へ伝える。CPU12は、当該検出結果を基に、動画像コンテンツから、音声特徴が検出された区間の音声データを音声特徴区間データとして抽出するように音声特徴抽出部214を制御する。抽出された音声特徴区間データは音声メモリ216へ蓄積され、後述の処理によりフォトフレーム200へ出力される。
The audio
[PVRの動作]
次に、以上のように構成されたPVR100の動作について説明する。以降の説明においては、PVR100のCPU12を主な動作主体として説明する。しかし、この動作は、上記特徴抽出部21や、CPU12の制御下において実行されるプログラムとも協働して行われる。
[Operation of PVR]
Next, the operation of the
(オブジェクト判別処理)
まず、本実施形態においてフォトフレーム200に表示される静止画像を変化させる上で必要となるオブジェクト認識処理について説明する。図4は、当該オブジェクト認識処理の様子を概念的に示した図である。
(Object discrimination processing)
First, an object recognition process necessary for changing a still image displayed on the
同図に示すように、PVR100のHDD8には、学習用データとして様々なオブジェクトを示す静止画像が記憶されている。本実施形態においては、デジタルカメラ300で撮影される動画像は家庭内のものであることを想定し、例えばユーザの家族やペット(例えば赤ちゃん、犬、長女、母親、父親等)を示す画像が学習用データとして記憶される。特徴抽出部21は、当該学習用データから、例えばエッジ、色、テクスチャ等の特徴量を抽出して多次元ベクトル化し、当該特徴ベクトルを基に、統計的機械学習により、判別関数を生成する。生成された判別関数は、例えばHDD8やフラッシュメモリ13等に記憶され、動画像コンテンツからのオブジェクト検出の際に必要な判別分析処理に用いられる。例えば、動画像コンテンツに含まれる未知の画像データから抽出した特徴データに基づくが判別関数に入力されることで、当該未知のオブジェクトが既知のオブジェクト(同図では犬)であると判別され、その結果が出力される。
As shown in the figure, the
また、判別関数を用いた判別分析処理の代わりに、例えばサポートベクターマシン(SVM)、Ada-boost、ニューラルネットワーク等の機械学習的な手法を用いた判別分析処理が実行されてもよい。この場合、判別関数の代わりに、その判別処理を実行する処理モジュールがPVR100に組み込まれる。
Further, instead of the discriminant analysis process using the discriminant function, a discriminant analysis process using a machine learning method such as a support vector machine (SVM), Ada-boost, or a neural network may be executed. In this case, instead of the discriminant function, a processing module that executes the discriminating process is incorporated in the
オブジェクト全体ではなく、例えば人間の顔を認識する場合は、特徴抽出部21は、例えば顔の各パーツの位置関係に応じた特徴フィルター、輝度分布情報、肌色情報等を用いて顔特徴データを抽出して特徴ベクトルを生成する。
For example, when recognizing a human face instead of the entire object, the
(フォトフレームへの静止画像出力処理)
次に、PVR100によるフォトフレームへの静止画像出力処理について説明する。図5は、当該静止画像出力処理の流れを示したフローチャートである。
(Still image output processing to photo frame)
Next, still image output processing to a photo frame by the
同図に示すように、まずPVR100のCPU12は、ビデオカメラ300から入力された動画像コンテンツから、映像特徴及び音声特徴を抽出する(ステップ41)。映像特徴抽出処理により、キーフレームが検出された場合(ステップ42のYes)、CPU12は、当該キーフレームを抽出する(ステップ43)。当該キーフレームとしては、パン、チルト、ズーム等のカメラ特徴を有するフレームや、上記判別関数を基に認識されたオブジェクトを含むフレームが抽出される。当該抽出処理は、例えばユーザが上記モード選択を行った場合に開始される。
As shown in the figure, first, the
カメラ特徴を認識するため、特徴抽出部21は、例えば、複数のフレーム間で各画素についてブロックマッチング処理を行うことで動きベクトルを検出し、当該動きベクトルを基に重回帰分析によりアフィン係数を算出する。そして特徴抽出部21は、当該アフィン係数がパン、チルト、ズームのいずれの特徴を示しているかを、例えば各カメラ特徴に応じた閾値により判断して、カメラ特徴の有無を検出する。
In order to recognize camera features, for example, the
またCPU12は、当該キーフレームが抽出された区間の音声データのうち、例えば人の声が含まれる区間を音声特徴区間データとして抽出する。動画像データに含まれる音声区間のうち、人の声には、子音、母音、息継ぎ等が含まれるため、音楽等の声以外の音声と比べて、所定パワー以上の継続区間が短いという特徴がある。この特徴を利用して、特徴抽出部21は例えば、時間に関する閾値を設定し、所定パワー以上の平均継続時間長が当該閾値よりも小さい場合には、その区間は声区間とし、当該閾値よりも大きい場合には、その区間は非声区間であると判定する。
Further, the
続いてCPU12は、上記抽出されたキーフレームを上記画像メモリ213へ保存し、また上記抽出された音声特徴区間データを上記音声メモリ216へ保存する(ステップ44)。このとき、保存されるキーフレームに含まれるオブジェクト(人)を識別する情報も合わせて保存される。
Subsequently, the
CPU12は、当該特徴抽出・メモリ処理を、例えばビデオカメラ300から入力した全ての動画像コンテンツについて繰り返す(ステップ45)。
The
続いてCPU12は、上記メモリされたキーフレームをフォトフレーム200へ出力し、当該フォトフレーム200での画像表示処理を開始させる(ステップ46)。例えばCPU12は、上記抽出されたキーフレームを、抽出された特徴に応じて優先順位をつけて順次所定間隔でフォトフレーム200へ出力する。所定間隔は例えば30秒であるが、これに限られない。フォトフレーム200は、当該キーフレームを、当該時間間隔毎に表示する。優先順位は、例えば、(1)ズーム、(2)顔、(3)パン、(4)チルトの順に設定されてもよい。
Subsequently, the
続いてCPU12は、HDD8等から、上記日時(年も含む)情報を取得し(ステップ47)、当該日時情報と、内蔵クロックが示す現在の日時とを比較する(ステップ48)。そしてCPU12は、現在の日時が、上記記憶された日時情報に対応する特定の日時が到来したと判断した場合(ステップ48のYes)、当該日時情報に関連する静止画像を取得する。当該関連する静止画像は、例えば、上記キーフレームとして抽出されたフレームのうち、当該到来した日時に対応する日時情報に関連するオブジェクトを含むフレームである。CPU12は、当該日時情報に関連するフレームをフォトフレーム200へ出力し、それまで表示されたフレームを当該新たなフレームへと変更させる(ステップ49)。またこのとき、当該新たなフレームに関連する音声情報があれば、CPU12は、当該音声情報も出力する。
Subsequently, the
例えば、上記記憶された日時情報がユーザの子供の誕生日であった場合、CPU12は、当該子供の誕生日が到来したときに、当該子供の画像を含むフレームを画像メモリ213から抽出して出力し、それまでのフレームに替わってフォトフレーム200に表示させる。これによりユーザは、その日が子供の誕生日であることを認識し、例えばプレゼントや特別な食事を用意するといった計画を立てることができる。このとき、CPU12は、例えば楽曲"Happy Birthday"の音声情報をフォトフレーム200へ出力し再生させてもよい。これにより誕生日の雰囲気がより盛り上がることになる。
For example, when the stored date and time information is the birthday of the child of the user, the
また、上記記憶された日時情報が、ユーザ自身の結婚記念日であった場合、CPU12は、当該記念日が到来したときに、ユーザ自身と配偶者が含まれるフレームを抽出してフォトフレーム200へ出力してもよい。これによりユーザは、当該記念日を認識して、何らかの準備をすることはもちろん、例えばその日の食卓等でフォトフレーム200を閲覧しながら思い出に浸ることができる。
If the stored date and time information is the user's own wedding anniversary, the
CPU12は、以上の処理を、ユーザにより処理終了が指示されるまでの間、上記記憶された日時情報に対応する日時が到来するたびに繰り返す。
The
[まとめ]
以上説明したように、本実施形態によれば、ビデオカメラ等で撮影された動画像を有効活用しながら、ユーザの現在または未来の生活に関連する静止画像をフォトフレームに表示させることができる。
[Summary]
As described above, according to the present embodiment, a still image related to a user's current or future life can be displayed on a photo frame while effectively using a moving image taken by a video camera or the like.
[変形例]
本発明は上述の実施形態にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
[Modification]
The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the present invention.
(変形例1)
上述の実施形態においては、フォトフレーム200で表示される静止画像の変更にあたり、動画像コンテンツから抽出されたキーフレームのうち、HDD8に記憶された日時情報に関連するキーフレームが出力された。しかし、PVR100は、例えば、それまでフォトフレーム200で表示されていたキーフレームに関連する情報を外部から取得して、当該取得した関連情報を新たな静止画像としてフォトフレーム200へ出力して表示させることもできる。以下、この場合のPVR100の具体的処理について説明する。
(Modification 1)
In the above-described embodiment, when changing the still image displayed in the
図6は、本変形例におけるPVR100の静止画像出力処理の流れを示したフローチャートである。以下では、PVR100によるフォトフレーム200への音声情報の出力処理については説明を省略するが、音声情報についても上記実施形態と同様にキーフレームから抽出され、フォトフレーム200へ出力されるものとする。
FIG. 6 is a flowchart showing the flow of still image output processing of the
同図に示すように、まずCPU12は、動画像コンテンツからのキーフレーム検出にあたり、検出フラグk(n)を0に初期設定する(ステップ61)。ここでnは、0≦n≦kmaxである。
As shown in the figure, first, the
続いてCPU12は、キーフレームの検出数を示すカウンタmを0に設定する(ステップ62)。続いてCPU12は、上述の実施形態と同様に、動画像コンテンツから、フレーム毎に、カメラ特徴やオブジェクト特徴等の画像特徴を抽出する(ステップ63)。
Subsequently, the
続いてCPU12は、当該特徴抽出処理により、当該処理対象のフレームがキーフレームであるか否かを判断し(ステップ64)、当該フレームがキーフレームである場合(Yes)には、m番目のフレームについての上記検出フラグをk(m)=1に設定した上で(ステップ65)、mをインクリメントする(ステップ66)。
Subsequently, the
そしてCPU12は、当該キーフレームを抽出して(ステップ67)、上記画像メモリ213へ保存する(ステップ68)。CPU12は、以上の処理を、ビデオカメラ300から取り込んだ全ての動画像コンテンツの全てのフレームについて繰り返す(ステップ69)。
Then, the
当該キーフレーム抽出処理が終了すると(ステップ69のYes)、CPU12は、当該キーフレームのフォトフレーム200への出力処理を実行する。
When the key frame extraction process ends (Yes in step 69), the
まずCPU12は、当該キーフレーム出力処理のカウンタnを0に初期設定する(ステップ70)。続いてCPU12は、上記抽出されたキーフレームを、例えば上記実施形態における優先順位に従って、順次フォトフレームへ出力し表示させる処理を開始する(ステップ71)。
First, the
続いてCPU12は、HDD8等から、上記日時(年も含む)情報を取得し(ステップ72)、当該日時情報と、内蔵クロックが示す現在の日時とを比較する(ステップ73)。そしてCPU12は、現在の日時が、上記記憶された日時情報に対応する特定の日時が到来したと判断した場合(ステップ73のYes)、それまでフォトフレーム200に表示されていた画像を変更する処理を実行する(ステップ74)。この場合における日時情報は、例えば、ユーザが毎日買物に出かける時間等、ユーザの習慣的な行動が開始されるであろう日時(時刻)である。
Subsequently, the
図7は、当該画像変更処理の具体的な流れを示したフローチャートである。同図に示すように、CPU12は、例えば上記買物等の参考になるスーパーマーケットのチラシ等の生活情報とともに、キーフレームk(n%m)に関連する関連情報を、通信部11によりネットワーク50上から検索する(ステップ731)。
FIG. 7 is a flowchart showing a specific flow of the image change process. As shown in the figure, the
ここでCPU12は、mod m(モジュロm)の演算処理により、キーフレーム出力処理のカウンタnがオーバーフローするのを防いでいる。すなわち、当該モジュロ演算の結果は、nがmで割り切れる場合は0、割り切れない場合はその余りとなるため、キーフレームが検出された数(m)だけ、当該キーフレームの関連情報の検索処理及びその後の出力(表示)処理が繰り返されることとなる。
Here, the
CPU12は、関連情報が存在する場合(ステップ732のYes)、例えば上記チラシ等の生活情報に続いて、当該関連情報を表示し(ステップ733)、存在しない場合(No)、現状のキーフレーム表示を維持する(ステップ734)。当該関連情報は、上記日時情報に関連し、かつ、それまでフォトフレーム200で表示されていたキーフレームに関連する情報である。
When the related information exists (Yes in Step 732), the
当該検索においては、例えばそれまでフォトフレーム200に表示されていたキーフレームに含まれるオブジェクト名がキーワードとして検索される。この検索にあたり、CPU12は、上記キーフレーム抽出の際、当該オブジェクト名を記憶する。またCPU12は、当該検索エンジンとして利用するウェブサイトのURL等も記憶している。またCPU12は、キーワードによらずに、当該オブジェクトを含むキーフレームそのものをネットワーク50上の検索エンジンへ送信して、画像検索により関連情報を取得してもよい。
In the search, for example, an object name included in a key frame that has been displayed in the
CPU12は、以上の処理を、上記カウンタnにしたがってキーフレームの数だけ繰り返し(ステップ76)、ユーザから表示終了指示があった場合(ステップ75のYes)には処理を終了する。
The
図8は、当該画像変更処理としての関連情報の表示処理を概念的に示した図である。同図に示すように、例えばキーフレームとして赤ん坊を含むフレームが抽出され表示された場合、CPU12は、上記食料品のチラシ等の生活情報に加えて、当該フレームの関連情報として、例えばオムツ等のベビー用品に関する広告情報(特売情報)を検索して表示させる。またキーフレームとしてペットの犬を含むフレームが抽出され表示された場合、CPU12は、関連情報として、ペットフードに関する広告情報を検索して表示させる。さらに、CPU12は、広告情報のみならず、当該犬の新たな散歩コース設定の参考となるような地域情報(地図情報)を検索して表示させてもよい。
FIG. 8 is a diagram conceptually showing related information display processing as the image change processing. As shown in the figure, when a frame including a baby is extracted and displayed, for example, as a key frame, the
またCPU12は、例えば12:00、15:00等の定時刻が到来した場合には、キーフレームに替えて時計の画像を表示させてもよい。当該時計の画像は予め例えばHDD8等に保存されている。
Further, the
上記生活情報及び関連情報が所定時間または所定回数表示された後、CPU12は、再びキーフレームの表示処理へと戻る。
After the life information and the related information are displayed for a predetermined time or a predetermined number of times, the
以上の処理により、PVR100は、動画像コンテンツから抽出したキーフレームを単にフォトフレーム上で閲覧させるのみならず、当該キーフレームに含まれるオブジェクトの関連情報を、ユーザが普段買物へ行く時間等、適切なタイミングで提供できる。したがってユーザは当該関連情報を参考にして、買物等のその後の行動を効率よく実行することができる。
Through the above processing, the
(変形例2)
上記変形例1においては、記憶された日時情報に対応する特定の日時が到来したときに各キーフレームの関連情報が検索され、それらが同じ時間帯にキーフレーム毎に繰り返し表示された。しかし、本変形例では、PVR100は、いずれかのキーフレームの関連情報が存在するか否かを定期的に確認し、当該確認時において関連情報が存在する場合には、当該関連情報を表示することとしている。図9は、本変形例におけるPVR100の画像変更処理の流れを示したフローチャートである。
(Modification 2)
In the first modification, related information of each key frame is retrieved when a specific date corresponding to the stored date information arrives, and these are repeatedly displayed for each key frame in the same time zone. However, in this modification, the
同図に示すように、本変形例におけるPVR100の処理は、ステップ91及び94の具体的処理を除いて上記変形例1と同様である。図10は当該ステップ91の具体的処理の流れを示した図であり、図11は当該ステップ94の具体的処理の流れを示したフローチャートである。
As shown in the figure, the processing of the
図10に示すように、CPU12は、フォトフレーム200へのフレーム出力処理の開始時に、抽出されたキーフレームの数に応じた関連情報の検出処理のカウンタtを0に初期設定し、また関連情報の検出フラグfを0に設定する(ステップ911)。
続いてCPU12は、t番目のキーフレームk(t)について関連情報を検索し(ステップ912)、関連情報が存在する場合(ステップ913のYes)には、上記検出フラグfを1に設定する(ステップ914)。その上でCPU12は、当該関連情報が検索されたキーフレームk(t)をフォトフレーム200へ出力し表示させる(ステップ915)。
一方、関連情報が存在しなかった場合(ステップ913のNo)、CPU12は、カウンタtをインクリメントし(ステップ916)、tが抽出キーフレームの総数m未満であれば(ステップ917のNo)、次のキーフレームについての関連情報を検索する(ステップ912)。またt>mである場合(ステップ917のYes)には、抽出キーフレームを、上記モジュロ演算により順次繰り返し表示する(ステップ918)。
As shown in FIG. 10, at the start of the frame output process to the
Subsequently, the
On the other hand, if the related information does not exist (No in Step 913), the
図11に示すように、CPU12は、特定の定期的な日時が到来したときに(ステップ93)、そのときに表示されているキーフレームについて関連情報が存在するか(検出フラグがオンか否か)を判断し(ステップ941)、存在する場合(Yes)には当該関連情報を表示し(ステップ942)、存在しない場合(No)にはそれまでのキーフレームの表示を維持する(ステップ943)。
As shown in FIG. 11, when a specific periodic date and time has arrived (step 93), the
以上の処理により、キーフレームの関連情報の有無が定期的に確認され、関連情報が存在する場合にはその都度表示されるため、ユーザは、いずれかのキーフレームについて常に最新の関連情報を閲覧することができる。 Through the above processing, the presence / absence of related information of key frames is periodically checked and displayed whenever there is related information. Therefore, the user always browses the latest related information for any key frame. can do.
[その他]
上述の実施形態においては、本発明をPVR100に適用した例を示した。しかし、本発明は、PVRに限らず、例えばPC、携帯電話機、その他のAV機器等、動画像コンテンツを記憶可能な装置であればいかなる電子機器にも適用可能である。また、上記ビデオカメラ300から、PVR100等の他の機器を介さずに直接フォトフレーム200へ静止画像が出力されてもよい。さらに、ユーザが撮影した動画像コンテンツのみならず、例えば放送番組等の動画像コンテンツからキーフレームが抽出されてフォトフレーム200へ出力されてもよい。
[Others]
In the above-mentioned embodiment, the example which applied this invention to PVR100 was shown. However, the present invention is not limited to PVR, and can be applied to any electronic device as long as it can store moving image content, such as a PC, a mobile phone, and other AV devices. Further, a still image may be directly output from the
上述の実施形態においては、画像変更処理によりフォトフレームに出力される関連情報は、商品の広告情報等であったが、例えば、キーフレームに関連するニュース情報、番組情報等、その他の関連情報が検索され出力されてもよい。これによりユーザはその後の行動の指針を得ることができる。 In the above-described embodiment, the related information output to the photo frame by the image change process is the advertisement information of the product. For example, other related information such as news information and program information related to the key frame is included. It may be retrieved and output. Thus, the user can obtain a guideline for subsequent actions.
上述の実施形態においては、キーフレームとは異なる画像を出力することで画像変更処理が実行されたが、例えば、特定時刻が到来したときに、当該キーフレームが拡大または縮小される等、何らかの変化を与えることで画像変更処理を実行してもよい。これによっても、ユーザは当該キーフレームに関する何らかのイベントや予定等を思い出すことができる。 In the above-described embodiment, the image changing process is executed by outputting an image different from the key frame. However, for example, when the specific time arrives, the key frame is enlarged or reduced. The image change process may be executed by giving This also allows the user to remember any event or schedule related to the key frame.
11…通信部
12…CPU
19…無線インタフェース
20…外部インタフェース
21…特徴抽出部
50…ネットワーク
100…PVR
200…デジタルフォトフレーム
211…キーフレーム抽出部
212…画像特徴検出部
213…画像メモリ
214…音声特徴抽出部
215…音声特徴検出部
216…音声メモリ
300…ビデオカメラ
300…デジタルカメラ
400…携帯端末
11.
DESCRIPTION OF
DESCRIPTION OF
Claims (7)
デジタルフォトフレームと通信する第1の通信部と、
前記動画像から所定の特徴を抽出し、当該抽出された特徴を基に第1の静止画像を抽出し、前記第1の静止画像を表示させるために、前記第1の通信部により当該第1の静止画像を前記デジタルフォトフレームへ出力し、前記日時情報に対応する日時が到来したときに、当該日時情報に関連する第2の静止画像を取得し、前記第1の静止画像を前記第2の静止画像に変化させるために、前記第1の通信部により当該第2の静止画像を前記デジタルフォトフレームへ出力する制御部と
を具備する電子機器。 A storage unit for storing moving images and predetermined date and time information;
A first communication unit that communicates with the digital photo frame;
A first feature is extracted from the moving image, a first still image is extracted based on the extracted feature, and the first communication unit displays the first still image. Is output to the digital photo frame, and when the date and time corresponding to the date and time information arrives, a second still image related to the date and time information is obtained, and the first still image is acquired as the second image. An electronic device comprising: a control unit that outputs the second still image to the digital photo frame by the first communication unit in order to change to a still image.
前記日時情報は、前記動画像に含まれ得る特定のオブジェクトに関連する日時情報であり、
前記制御部は、前記動画像から前記特定のオブジェクトを認識して、当該特定のオブジェクトを含む静止画像を前記第2の静止画像として抽出し、当該特定のオブジェクトに関連する前記日時情報を基に、当該日時情報に対応する日時が到来したときに、前記第2の静止画像を前記第1の通信部により前記デジタルフォトフレームへ出力する
電子機器。 The electronic device according to claim 1,
The date and time information is date and time information related to a specific object that can be included in the moving image,
The control unit recognizes the specific object from the moving image, extracts a still image including the specific object as the second still image, and based on the date and time information related to the specific object. An electronic device that outputs the second still image to the digital photo frame by the first communication unit when the date and time corresponding to the date and time information arrives.
前記動画像は音声情報を有し、
前記デジタルフォトフレームは前記音声情報を出力可能であり、
前記制御部は、前記動画像から、前記抽出された第2の静止画像に含まれる特定のオブジェクトに関連する音声情報を抽出し、前記日時情報に対応する日時が到来したときに、当該抽出された音声情報を出力させるために、当該音声情報を前記デジタルフォトフレームへ出力する
電子機器。 The electronic device according to claim 2,
The moving image has audio information,
The digital photo frame can output the audio information;
The control unit extracts audio information related to a specific object included in the extracted second still image from the moving image, and extracts the audio information when the date and time corresponding to the date and time information arrives. An electronic device that outputs the audio information to the digital photo frame in order to output the audio information.
ネットワークに接続する第2の通信部をさらに具備し、
前記日時情報は、一日のうちの所定時刻であり、
前記制御部は、前記動画像から特定のオブジェクトを認識して、当該特定のオブジェクトを含む静止画像を前記第1の静止画像として抽出し、前記第1の静止画像に関連する関連情報を前記第2の通信部により前記ネットワーク上から検索及び受信し、前記所定時刻が到来したときに、当該受信された関連情報を、前記第2の静止画像として前記第1の通信部により前記デジタルフォトフレームへ出力する
電子機器。 The electronic device according to claim 1,
A second communication unit connected to the network;
The date and time information is a predetermined time of the day,
The control unit recognizes a specific object from the moving image, extracts a still image including the specific object as the first still image, and relates related information related to the first still image to the first image. When the predetermined time arrives, the received related information is retrieved and received as the second still image by the first communication unit to the digital photo frame. Output electronic equipment.
前記制御部は、前記第1の静止画像に含まれる前記オブジェクトに関連し、かつ、前記検索を実行する時が属する日に限って入手可能な商品の広告情報を前記関連情報として検索する
電子機器。 The electronic device according to claim 4,
The control unit searches for advertisement information of a product related to the object included in the first still image and available only on a day to which the time of executing the search belongs, as the related information. .
前記動画像から所定の特徴を抽出し、当該抽出された特徴を基に第1の静止画像を抽出し、
前記抽出された第1の静止画像を表示させるために、当該第1の静止画像をデジタルフォトフレームへ出力し、
前記日時情報に対応する日時が到来したときに、当該日時情報に関連する第2の静止画像を取得し、
前記第1の静止画像を前記第2の静止画像に変化させるために、当該第2の静止画像を前記デジタルフォトフレームへ出力する
画像出力方法。 Stores moving images and predetermined date and time information,
Extracting a predetermined feature from the moving image, extracting a first still image based on the extracted feature,
In order to display the extracted first still image, the first still image is output to a digital photo frame,
When the date and time corresponding to the date and time information has arrived, a second still image related to the date and time information is acquired,
An image output method for outputting the second still image to the digital photo frame in order to change the first still image to the second still image.
動画像と、所定の日時情報とを記憶するステップと、
前記動画像から所定の特徴を抽出し、当該抽出された特徴を基に第1の静止画像を抽出するステップと、
前記抽出された第1の静止画像を表示させるために、当該第1の静止画像をデジタルフォトフレームへ出力するステップと、
前記日時情報に対応する日時が到来したときに、当該日時情報に関連する第2の静止画像を取得するステップと、
前記第1の静止画像を前記第2の静止画像に変化させるために、当該第2の静止画像を前記デジタルフォトフレームへ出力するステップと
を実行させるプログラム。 Electronic equipment,
Storing a moving image and predetermined date and time information;
Extracting a predetermined feature from the moving image and extracting a first still image based on the extracted feature;
Outputting the first still image to a digital photo frame to display the extracted first still image;
Obtaining a second still image related to the date and time information when the date and time corresponding to the date and time information has arrived;
Outputting the second still image to the digital photo frame in order to change the first still image to the second still image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009150918A JP2011010007A (en) | 2009-06-25 | 2009-06-25 | Electronic apparatus, image output method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009150918A JP2011010007A (en) | 2009-06-25 | 2009-06-25 | Electronic apparatus, image output method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011010007A true JP2011010007A (en) | 2011-01-13 |
Family
ID=43566159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009150918A Pending JP2011010007A (en) | 2009-06-25 | 2009-06-25 | Electronic apparatus, image output method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011010007A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012235304A (en) * | 2011-04-28 | 2012-11-29 | Toshiba Corp | Electronic apparatus, image processing method, and program |
JP2012249211A (en) * | 2011-05-31 | 2012-12-13 | Casio Comput Co Ltd | Image file generating device, image file generating program and image file generating method |
JP2012253792A (en) * | 2012-07-27 | 2012-12-20 | Toshiba Corp | Electronic apparatus, image processing method and program |
JP2013074551A (en) * | 2011-09-28 | 2013-04-22 | Casio Comput Co Ltd | Image display apparatus and image display program |
CN113128399A (en) * | 2021-04-19 | 2021-07-16 | 重庆大学 | Speech image key frame extraction method for emotion recognition |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11239322A (en) * | 1997-11-24 | 1999-08-31 | Hewlett Packard Co <Hp> | Video browsing and viewing system |
JP2000299829A (en) * | 1999-04-13 | 2000-10-24 | Canon Inc | Image processing unit and its method |
JP2006173984A (en) * | 2004-12-15 | 2006-06-29 | Nikon Corp | Image reproducing apparatus and image reproducing system |
JP2007086546A (en) * | 2005-09-22 | 2007-04-05 | Fujifilm Corp | Advertisement printing device, advertisement printing method, and advertisement printing program |
JP2007150548A (en) * | 2005-11-25 | 2007-06-14 | Funai Electric Co Ltd | Video file reproducing apparatus |
JP2007274030A (en) * | 2006-03-30 | 2007-10-18 | Casio Comput Co Ltd | Image output device and method therefor |
JP2008236469A (en) * | 2007-03-22 | 2008-10-02 | Pioneer Electronic Corp | Content reproducing device and program |
-
2009
- 2009-06-25 JP JP2009150918A patent/JP2011010007A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11239322A (en) * | 1997-11-24 | 1999-08-31 | Hewlett Packard Co <Hp> | Video browsing and viewing system |
JP2000299829A (en) * | 1999-04-13 | 2000-10-24 | Canon Inc | Image processing unit and its method |
JP2006173984A (en) * | 2004-12-15 | 2006-06-29 | Nikon Corp | Image reproducing apparatus and image reproducing system |
JP2007086546A (en) * | 2005-09-22 | 2007-04-05 | Fujifilm Corp | Advertisement printing device, advertisement printing method, and advertisement printing program |
JP2007150548A (en) * | 2005-11-25 | 2007-06-14 | Funai Electric Co Ltd | Video file reproducing apparatus |
JP2007274030A (en) * | 2006-03-30 | 2007-10-18 | Casio Comput Co Ltd | Image output device and method therefor |
JP2008236469A (en) * | 2007-03-22 | 2008-10-02 | Pioneer Electronic Corp | Content reproducing device and program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012235304A (en) * | 2011-04-28 | 2012-11-29 | Toshiba Corp | Electronic apparatus, image processing method, and program |
JP2012249211A (en) * | 2011-05-31 | 2012-12-13 | Casio Comput Co Ltd | Image file generating device, image file generating program and image file generating method |
JP2013074551A (en) * | 2011-09-28 | 2013-04-22 | Casio Comput Co Ltd | Image display apparatus and image display program |
JP2012253792A (en) * | 2012-07-27 | 2012-12-20 | Toshiba Corp | Electronic apparatus, image processing method and program |
CN113128399A (en) * | 2021-04-19 | 2021-07-16 | 重庆大学 | Speech image key frame extraction method for emotion recognition |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9900498B2 (en) | Glass-type terminal and method for controlling the same | |
CN101523392B (en) | Personalized slide show generation | |
WO2017189046A1 (en) | Automatic animation triggering from video | |
JP4742952B2 (en) | Receiver and program | |
JP2009140051A (en) | Information processor, information processing system, recommendation device, information processing method and storage medium | |
US20100121875A1 (en) | Information processing apparatus, information processing method, and information processing program | |
US20220223181A1 (en) | Method for synthesizing videos and electronic device therefor | |
TWI376948B (en) | Method, device and storage medium for frame specification | |
JP5870742B2 (en) | Information processing apparatus, system, and information processing method | |
JP2011223551A (en) | Display device, display method, program, and recording medium | |
JP2011010007A (en) | Electronic apparatus, image output method, and program | |
EP3343936A2 (en) | Smart electronic device | |
US20030219708A1 (en) | Presentation synthesizer | |
TW200910128A (en) | Keyword extraction method | |
JP4768846B2 (en) | Electronic apparatus and image display method | |
JP2011160215A (en) | Broadcast receiver, method for providing point by the same, program of broadcast receiver, and computer readable recording medium | |
JP2007215046A (en) | Information processor, information processing method, information processing program, and recording medium | |
KR20160097667A (en) | Display apparatus and information providing method thereof | |
JP2010124319A (en) | Event-calendar display apparatus, event-calendar display method, event-calendar display program, and event-information extraction apparatus | |
TW200841738A (en) | Display apparatus having function of network link | |
JP4539848B2 (en) | Program recording / reproducing apparatus and program recording / reproducing system | |
CN101523479A (en) | Contents reproducing device, contents reproducing method, contents reproducing system, contents data transmitting device, contents data transmitting method, program, and recording medium | |
JP4723901B2 (en) | Television display device | |
JP2006253984A (en) | Image display control apparatus and program | |
CN109618231A (en) | A kind of movie and television contents recommended method and system based on cold start-up |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130402 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130806 |