JP5619214B2 - Image processing apparatus, image processing program, and image processing method - Google Patents

Image processing apparatus, image processing program, and image processing method Download PDF

Info

Publication number
JP5619214B2
JP5619214B2 JP2013108020A JP2013108020A JP5619214B2 JP 5619214 B2 JP5619214 B2 JP 5619214B2 JP 2013108020 A JP2013108020 A JP 2013108020A JP 2013108020 A JP2013108020 A JP 2013108020A JP 5619214 B2 JP5619214 B2 JP 5619214B2
Authority
JP
Japan
Prior art keywords
image
video data
display device
image processing
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013108020A
Other languages
Japanese (ja)
Other versions
JP2013232904A (en
Inventor
秀和 見原
秀和 見原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013108020A priority Critical patent/JP5619214B2/en
Publication of JP2013232904A publication Critical patent/JP2013232904A/en
Application granted granted Critical
Publication of JP5619214B2 publication Critical patent/JP5619214B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Databases & Information Systems (AREA)

Description

画像処理装置、画像処理プログラム及び画像処理方法に関する。   The present invention relates to an image processing apparatus, an image processing program, and an image processing method.

家庭内のコンピュータやデジタルテレビ、ハードディスクレコーダ等の電子機器をローカルエリアネットワークにより相互に接続し、映像や画像等のコンテンツを共有する技術がある。これら電子機器を相互接続して動作させるための仕様としては、例えばUPnP(Universal Plug and Play)が用いられており、当該UPnPのUPnP AV Architectureには、コントロールポイントが、メディアサーバから当該メディアサーバに記憶されているコンテンツの情報を取得して当該コンテンツのうち再生するコンテンツを選択し、当該選択したコンテンツの取得/再生をメディアレンダラに指示する仕様が定義されている。   There is a technology in which electronic devices such as home computers, digital televisions, and hard disk recorders are connected to each other via a local area network to share contents such as videos and images. As a specification for interconnecting and operating these electronic devices, for example, UPnP (Universal Plug and Play) is used. In UPnP UPnP AV Architecture of the UPnP, a control point is transferred from the media server to the media server. A specification is defined in which information of stored content is acquired, content to be reproduced is selected from the content, and the media renderer is instructed to acquire / reproduce the selected content.

ここで、UPnPを利用した技術の例として、複数の記憶媒体に夫々記憶されている各コンテンツ同士を組み合わせたコンテンツを再生する技術が挙げられる(例えば、特許文献1)。特許文献1には、アクセス装置が、記憶再生装置に記憶されている複数のコンテンツを編集した仮想コンテンツを作成し、仮想コンテンツを構成する各コンテンツの編集情報をサーバ装置に送信し、サーバ装置が編集情報に基づいて記憶再生装置に対してコンテンツを再生して提示装置に送信するように要求し、記憶再生装置がサーバ装置からの要求に基づいてコンテンツを再生して提示装置に送信するコンテンツ伝送制御システムが開示されている。   Here, as an example of a technique using UPnP, there is a technique for playing back a content obtained by combining contents stored in a plurality of storage media (for example, Patent Document 1). In Patent Literature 1, an access device creates virtual content obtained by editing a plurality of contents stored in a storage / playback device, transmits edit information of each content constituting the virtual content to a server device, and the server device Content transmission for requesting the storage / playback device to play back the content based on the editing information and sending it to the presentation device, and for the storage / playback device to play back the content based on the request from the server device A control system is disclosed.

特開2008−262643JP2008-262643

ここで、メディアサーバに記憶されている画像をメディアレンダラに表示する際には、当該画像に基づいた、ユーザにとって好適な映像を生成し、当該生成した映像を表示できることが好ましい。しかしながら特許文献1の技術は、サーバ装置に記憶されている複数のコンテンツを組み合わせたコンテンツを再生するものであり、サーバに記憶されている画像から映像を生成することについて考慮していない。そのため、ユーザの好みに応じた映像を表示できない恐れがある。   Here, when an image stored in the media server is displayed on the media renderer, it is preferable that a video suitable for the user can be generated based on the image and the generated video can be displayed. However, the technique of Patent Literature 1 reproduces content that is a combination of a plurality of contents stored in a server device, and does not consider generating a video from an image stored in the server. Therefore, there is a possibility that the video according to the user's preference cannot be displayed.

そこで本発明は、サーバに記憶された画像に基づいた、ユーザにとって好適な映像を表示させることができる画像処理装置、画像処理プログラム及び画像処理方法の提供を目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an image processing program, and an image processing method capable of displaying a video suitable for a user based on an image stored in a server.

上記課題を解決するために、実施の形態の画像処理装置は、ネットワークを介して、1以上の外部機器から1以上の静止画を取得する取得手段と、前記取得した静止画と、当該静止画の構成要素となる1以上の画像要素の内容を特定するための情報を含むインデックス情報とに基づいて、前記静止画の画面内における前記画像要素の少なくとも一部を含む動画を有する映像データを生成する生成手段と、前記生成手段で生成された前記映像データの存在場所を、表示装置に前記ネットワークを介して送信する第1の送信手段と、前記表示装置からの前記映像データの存在場所を指定したデータ取得要求に応じて、前記映像データを、前記表示装置に前記ネットワークを介して送信する第2の送信手段とを備える。 In order to solve the above problems, an image processing apparatus according to an embodiment includes an acquisition unit that acquires one or more still images from one or more external devices via a network, the acquired still image, and the still image Generating video data including a moving image including at least a part of the image element in the screen of the still image based on index information including information for specifying contents of one or more image elements which are constituent elements of Generating means, first transmitting means for transmitting the location of the video data generated by the generating means to the display device via the network, and specifying the location of the video data from the display device And second transmission means for transmitting the video data to the display device via the network in response to the data acquisition request.

また、実施の形態の画像処理プログラムは、ネットワークを介して、1以上の外部機器から1以上の静止画を取得する取得手段と、前記取得した静止画と、当該静止画の構成要素となる1以上の画像要素の内容を特定するための情報を含むインデックス情報とに基づいて、前記静止画の画面内における前記画像要素少なくとも一部を含む動画を有する映像データを生成する生成手段と、前記生成手段で生成された前記映像データの存在場所を、表示装置に前記ネットワークを介して送信する第1の送信手段と、前記表示装置からの前記映像データの存在場所を指定したデータ取得要求に応じて、前記映像データを、前記表示装置に前記ネットワークを介して送信する第2の送信手段、としてコンピュータを機能させる。 The image processing program according to the embodiment is an acquisition unit that acquires one or more still images from one or more external devices via a network, the acquired still image, and a component 1 of the still image. Generating means for generating video data having a moving image including at least a part of the image element in the screen of the still image based on the index information including information for specifying the content of the image element , and the generation In response to a data acquisition request specifying the location of the video data from the display device, and a first transmission means for transmitting the location of the video data generated by the means to the display device via the network The computer is caused to function as second transmission means for transmitting the video data to the display device via the network.

さらに、実施の形態の画像処理方法は、ネットワークを介して、1以上の外部機器から1以上の静止画を画像処理装置が取得するステップと、前記取得した静止画と、当該静止画の構成要素となる1以上の画像要素の内容を特定するための情報を含むインデックス情報とに基づいて、前記静止画の画面内における前記画像要素の少なくとも一部を含む動画を有する映像データを生成するステップと、生成した前記映像データの存在場所を、前記画像処理装置が表示装置に前記ネットワークを介して送信するステップと、前記表示装置からの前記映像データの存在場所を指定したデータ取得要求に応じて、前記映像データを、前記画像処理装置が前記表示装置に前記ネットワークを介して送信するステップとを有する。 Furthermore, the image processing method according to the embodiment includes a step in which an image processing apparatus acquires one or more still images from one or more external devices via a network, the acquired still image, and components of the still image Generating video data having a moving image including at least a part of the image element in the still image screen based on index information including information for specifying the content of one or more image elements In response to the step of transmitting the generated location of the video data to the display device via the network, and the data acquisition request specifying the location of the video data from the display device, The image processing device transmitting the video data to the display device via the network.

ユーザにとって好適な映像を表示させることができる。   An image suitable for the user can be displayed.

本発明の一実施形態に係るネットワークシステムを示す図。The figure which shows the network system which concerns on one Embodiment of this invention. 本発明の一実施形態に係るコンピュータのシステム構成を示す図。The figure which shows the system configuration | structure of the computer which concerns on one Embodiment of this invention. 本発明の一実施形態に係るコンピュータの機能ブロックを示す図。The figure which shows the functional block of the computer which concerns on one Embodiment of this invention. 本発明の一実施形態に係るインデックス情報データベースの構成例を示す図。The figure which shows the structural example of the index information database which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像選択画面例を示す図。The figure which shows the example of an image selection screen concerning one Embodiment of this invention. 本発明の一実施形態に係る画像選択画面例を示す図。The figure which shows the example of an image selection screen concerning one Embodiment of this invention. 本発明の一実施形態に係るユーザ嗜好指定画面例を示す図。The figure which shows the example of a user preference designation | designated screen which concerns on one Embodiment of this invention. 本発明の一実施形態に係る映像生成エンジンが生成する映像例を示す図。The figure which shows the example of an image | video which the video generation engine which concerns on one Embodiment of this invention produces | generates. 本発明の一実施形態に係る映像生成エンジンが生成する映像例を示す図。The figure which shows the example of an image | video which the video generation engine which concerns on one Embodiment of this invention produces | generates. 本発明の一実施形態に係る映像生成エンジンが生成する映像例を示す図。The figure which shows the example of an image | video which the video generation engine which concerns on one Embodiment of this invention produces | generates. 本発明の一実施形態に係る映像生成エンジンが生成する映像例を示す図。The figure which shows the example of an image | video which the video generation engine which concerns on one Embodiment of this invention produces | generates. 本発明の一実施形態に係る映像生成エンジンが生成する映像例を示す図。The figure which shows the example of an image | video which the video generation engine which concerns on one Embodiment of this invention produces | generates. 本発明の一実施形態に係る映像生成エンジンが生成する映像の構成例を示す図。The figure which shows the structural example of the image | video which the video generation engine which concerns on one Embodiment of this invention produces | generates. 本発明の一実施形態に係るインデクシング処理の処理フロー例を示す図。The figure which shows the example of a processing flow of the indexing process which concerns on one Embodiment of this invention. 本発明の一実施形態に係るコンピュータの映像生成処理の処理フロー例を示す図。The figure which shows the example of a processing flow of the video production | generation process of the computer which concerns on one Embodiment of this invention. 本発明の一実施形態に係る映像生成処理の処理シーケンス例を示す図。The figure which shows the process sequence example of the image | video production | generation process which concerns on one Embodiment of this invention.

以下、図面を参照して、本発明の一実施形態について説明する。
図1は、本実施形態に係る画像処理装置を含むネットワークシステムの構成例を示す図である。ここで本実施形態に係る画像処理装置は、例えば、ノートブックタイプのコンピュータ100として実現されている。コンピュータ100は、有線又は無線LAN等により構成されるネットワーク200に接続されており、当該ネットワーク200には、記憶装置300、表示装置400等が接続されている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration example of a network system including an image processing apparatus according to the present embodiment. Here, the image processing apparatus according to the present embodiment is realized as, for example, a notebook type computer 100. The computer 100 is connected to a network 200 configured by a wired or wireless LAN, and a storage device 300, a display device 400, and the like are connected to the network 200.

コンピュータ100は、LCD105、HDD110、メディアコントロールプログラム150(図1では非図示)、通信部170、映像生成エンジン180(図1では非図示)等を備える。ここで、LCD105は画像を表示する表示ディスプレイである。また、HDD110は画像等のデータを記憶する記憶媒体である。メディアコントロールプログラム150は、後述するDMCとして機能するプログラムであり、記憶装置300及び表示装置400を制御できる。通信部170はネットワーク200を介して記憶装置300、表示装置400、通信装置500等との通信を行う。映像生成エンジン180は、当該映像生成エンジンに入力される画像に基づいた映像を生成する機能を有する。   The computer 100 includes an LCD 105, an HDD 110, a media control program 150 (not shown in FIG. 1), a communication unit 170, a video generation engine 180 (not shown in FIG. 1), and the like. Here, the LCD 105 is a display for displaying an image. The HDD 110 is a storage medium that stores data such as images. The media control program 150 is a program that functions as a DMC, which will be described later, and can control the storage device 300 and the display device 400. The communication unit 170 communicates with the storage device 300, the display device 400, the communication device 500, and the like via the network 200. The video generation engine 180 has a function of generating a video based on an image input to the video generation engine.

また記憶装置300は、記憶部301、通信部302等を備え、記憶部301に記憶された画像データ等を、コンピュータ100の制御のもとで通信部302を介してコンピュータ100や表示装置400に送信する機能を有する。なお記憶部301に記憶された画像データには各々URIが割り当てられており、記憶装置300は、コンピュータ100や表示装置400から当該URIを指定したデータ要求があった場合に、当該データ要求に対して当該URIに対応する画像データを送信する。   The storage device 300 includes a storage unit 301, a communication unit 302, and the like. Image data stored in the storage unit 301 is transferred to the computer 100 and the display device 400 via the communication unit 302 under the control of the computer 100. It has a function to transmit. Each image data stored in the storage unit 301 is assigned a URI, and the storage device 300 responds to the data request when there is a data request specifying the URI from the computer 100 or the display device 400. The image data corresponding to the URI is transmitted.

表示装置400は、通信部401、デコード部402、LCD403等を備え、コンピュータ100の制御のもと、通信部401を介してコンピュータ100や記憶装置300から画像データや映像データを受信する。そして受信した画像データや映像データをデコード部402がデコード(再生)し、デコードした画像データや映像データをLCD403が表示することができる。   The display device 400 includes a communication unit 401, a decoding unit 402, an LCD 403, and the like, and receives image data and video data from the computer 100 and the storage device 300 via the communication unit 401 under the control of the computer 100. Then, the decoding unit 402 can decode (reproduce) the received image data and video data, and the LCD 403 can display the decoded image data and video data.

ここで、コンピュータ100、記憶装置300及び表示装置400は、ネットワーク200上の各デバイスの存在を認識して互いの機能を制御するためのUPnP(Universal Plug And Play)機能を有し、さらにUPnP機能を利用することにより、例えばDLNA(Digital Living Network Alliance)のガイドラインで規定されたホームネットワークデバイスとして機能することができる。そしてホームネットワークデバイスは、デジタルメディアサーバ(DMS)、デジタルメディアコントローラ(DMC)、デジタルメディアレンダラ(DMR)等のカテゴリに分類される。   Here, the computer 100, the storage device 300, and the display device 400 have a UPnP (Universal Plug And Play) function for recognizing the existence of each device on the network 200 and controlling each other's functions, and further a UPnP function Can be used as a home network device defined by, for example, the guidelines of DLNA (Digital Living Network Alliance). Home network devices are classified into categories such as a digital media server (DMS), a digital media controller (DMC), and a digital media renderer (DMR).

DMCは、DMS及びDMR等のデバイスを制御するデバイスであり、DMSは、DMCからの要求に応じて、当該DMSの記憶部に格納されているコンテンツデータをDMRに提供するデバイスである。なおDMSは、当該DMSが記憶している画像データのURI等について、UPnPのCDS(Content Directory Service)を用いることにより、当該画像情報をネットワークに公開し、当該画像情報をDMCが取得できるようにする。   The DMC is a device that controls devices such as DMS and DMR, and the DMS is a device that provides content data stored in the storage unit of the DMS to the DMR in response to a request from the DMC. The DMS uses the UPnP CDS (Content Directory Service) for the URI of the image data stored in the DMS, so that the image information can be obtained by the DMC and released to the network. To do.

そしてDMCは、DMSからCDSにより公開された画像情報を、例えばBrowseアクションによって取得し、画像データのURIを取得することができる。またDMCは、UPnPのAVT(Audio/Visual Transport service)のSetAVTransportURIアクションにより、再生対象のデータのURIをメディアレンダラに設定する。   The DMC can acquire the image information released from the DMS by the CDS, for example, by a Browse action, and can acquire the URI of the image data. Also, the DMC sets the URI of the data to be played back in the media renderer by the SetAVTransportURI action of UPnP AVT (Audio / Visual Transport service).

そしてDMRは、再生対象のデータのURIをDMCにより設定されると、当該URIからデータを取得し、続いてDMCからAVTのうちPlayアクションを受信すると、取得したデータを再生する。   When the DMR sets the URI of the data to be played back by the DMC, the DMR acquires the data from the URI. Subsequently, when the DMR receives a Play action from the AVT, the DMR plays the acquired data.

なお本実施形態において、コンピュータ100は、DMC、DMS、DMRの何れのデバイスとしても機能しうる。そして、記憶装置300はDMSとして、表示装置400はDMRとして機能する。   In the present embodiment, the computer 100 can function as any device of DMC, DMS, and DMR. The storage device 300 functions as a DMS, and the display device 400 functions as a DMR.

ところで、従来のネットワークシステムにおいては、DMSに記憶された画像データをDMRに再生する場合、DMCはDMSからの画像取得及び画像再生をDMRに指示し、DMRは当該指示に従って画像データを取得/再生する。   By the way, in the conventional network system, when reproducing the image data stored in the DMS to the DMR, the DMC instructs the DMR to acquire and reproduce the image from the DMS, and the DMR acquires / reproduces the image data according to the instruction. To do.

一方、本実施形態のネットワークシステムにおいては、DMCの指示に従ってDMSの画像データをDMRに表示する場合、即ちコンピュータ100の指示に従って、記憶装置300に記憶された画像データを表示装置400に再生させる場合、記憶装置300の画像データに基づいた映像データをコンピュータ100の映像エンジン180が生成し、当該映像データを表示装置400に表示することができ、ユーザにとって好適な映像を提供できるが、詳細については図2乃至図16を参照して説明する。   On the other hand, in the network system according to the present embodiment, when DMS image data is displayed on the DMR according to an instruction of the DMC, that is, when image data stored in the storage device 300 is reproduced on the display device 400 according to an instruction of the computer 100. The video engine 180 of the computer 100 generates video data based on the image data in the storage device 300, and the video data can be displayed on the display device 400, and a video suitable for the user can be provided. This will be described with reference to FIGS.

なお、図1においてDMSはコンピュータ100及び記憶装置300が示されているが、これ以外のDMSがネットワーク200に接続されていても良く、また、DMRについてもコンピュータ100及び表示装置400以外の装置がネットワーク200に接続されていても良い。   In FIG. 1, the computer 100 and the storage device 300 are shown as the DMS, but other DMSs may be connected to the network 200, and devices other than the computer 100 and the display device 400 may be used for the DMR. It may be connected to the network 200.

次に図2を参照して本実施形態に係るコンピュータ100のシステム構成について説明する。
コンピュータ100は、CPU101、ノースブリッジ102、主メモリ103、GPU104、VRAM104A、LCD105、サウスブリッジ106、サウンドコントローラ107、スピーカ108、BIOS−ROM109、HDD110、LANコントローラ111、ODD112、ビデオプロセッサ113、メモリ113A、無線LANコントローラ114、EC/KBC115、キーボード116、ポインティングデバイス117等を備えている。
Next, a system configuration of the computer 100 according to the present embodiment will be described with reference to FIG.
The computer 100 includes a CPU 101, a north bridge 102, a main memory 103, a GPU 104, a VRAM 104A, an LCD 105, a south bridge 106, a sound controller 107, a speaker 108, a BIOS-ROM 109, an HDD 110, a LAN controller 111, an ODD 112, a video processor 113, a memory 113A, A wireless LAN controller 114, an EC / KBC 115, a keyboard 116, a pointing device 117, and the like are provided.

CPU101は、コンピュータ100の動作を制御するプロセッサであり、HDD110から主メモリ103にロードされる、オペレーティングシステム(OS)160、およびメディアコントロールプログラム150等の各種アプリケーションプログラムを実行する。また、CPU101は、BIOS−ROM109に格納されたBIOS(Basic Input/Output System)も実行する。BIOSは、コンピュータ100のハードウェアを制御するためのプログラムである。   The CPU 101 is a processor that controls the operation of the computer 100, and executes various application programs such as an operating system (OS) 160 and a media control program 150 that are loaded from the HDD 110 to the main memory 103. The CPU 101 also executes a BIOS (Basic Input / Output System) stored in the BIOS-ROM 109. The BIOS is a program for controlling the hardware of the computer 100.

ノースブリッジ102は、CPU101のローカルバスとサウスブリッジ106との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、GPU104との通信を実行する機能も有している。   The north bridge 102 is a bridge device that connects the local bus of the CPU 101 and the south bridge 106. The north bridge 102 also includes a memory controller that controls access to the main memory 103. The north bridge 102 also has a function of executing communication with the GPU 104.

グラフィクスコントローラ104は、コンピュータ100のディスプレイとして使用されるLCD105を制御する表示コントローラである。そしてグラフィクスコントローラ104は、ノースブリッジ102を介してCPU101から入力される描画要求に基づいてVRAM104Aに表示データを描画するための表示処理を実行する。   The graphics controller 104 is a display controller that controls the LCD 105 used as a display of the computer 100. The graphics controller 104 executes display processing for drawing display data in the VRAM 104A based on a drawing request input from the CPU 101 via the north bridge 102.

サウスブリッジ106は、PCI(Peripheral Component Interconnect)バス上およびLPC(Low Pin Count)バスに接続された各デバイスを制御する。また、サウスブリッジ106は、HDD110およびODD112を制御するためのIDE(Integrated Drive Electronics)コントローラおよびBIOS−ROM109へのアクセスを制御するメモリコントローラが内蔵されている。さらにサウスブリッジ106は、サウンドコントローラ107およびLANコントローラ111との通信を実行する機能も有する。   The south bridge 106 controls each device connected to a peripheral component interconnect (PCI) bus and a low pin count (LPC) bus. The south bridge 106 includes a built-in IDE (Integrated Drive Electronics) controller for controlling the HDD 110 and the ODD 112 and a memory controller for controlling access to the BIOS-ROM 109. Further, the south bridge 106 has a function of executing communication with the sound controller 107 and the LAN controller 111.

サウンドコントローラ107は音源デバイスであり、再生対象のオーディオデータをスピーカ108に出力する。HDD110は、OSやメディアコントロールプログラム150等のプログラムや、画像データ等を記憶する為の記憶媒体である。LANコントローラ111は、例えばIEEE802.3規格の有線通信を実行する有線通信デバイスであり、無線LANコントローラ112は、例えばIEEE802.11規格の無線通信を実行する無線通信デバイスである。またODD113は、可搬性の光学ディスクに対するデータの書込/読込を制御するデバイスである。   The sound controller 107 is a sound source device and outputs audio data to be reproduced to the speaker 108. The HDD 110 is a storage medium for storing programs such as the OS and the media control program 150, image data, and the like. The LAN controller 111 is a wired communication device that executes IEEE 802.3 standard wired communication, for example, and the wireless LAN controller 112 is a wireless communication device that executes IEEE 802.11 standard wireless communication, for example. The ODD 113 is a device that controls writing / reading of data with respect to a portable optical disk.

ビデオプロセッサ114は、記憶装置300やHDD110から取得した画像データに対するインデクシング処理や、当該取得した画像データに基づいた映像データを生成する映像生成処理等の画像処理を実行し、メモリ114Aは、ビデオプロセッサ114の作業メモリとして用いられる。ここでビデオプロセッサ114は、例えば画像データから顔画像や当該顔画像の位置及びサイズ等を検出する顔検出処理や、当該顔検出処理により得られた、画像データに含まれる顔画像や顔画像の位置及びサイズ等の情報に基づいて、人物の顔にフォーカスしたエフェクトを有する映像を生成する処理等を実行できる。   The video processor 114 executes image processing such as indexing processing for image data acquired from the storage device 300 or the HDD 110 and video generation processing for generating video data based on the acquired image data. The memory 114A includes a video processor 114 working memory. Here, the video processor 114 detects the face image, the position and size of the face image from the image data, and the face image and the face image included in the image data obtained by the face detection process. Based on information such as position and size, it is possible to execute processing for generating an image having an effect focused on the face of a person.

なお、画像データに対する画像処理を実行するためには多くの演算量が必要とされるが、ビデオプロセッサ114がCPU101のバックエンドプロセッサとして画像処理を行うことにより、CPU101の負荷を抑制しつつ画像処理を実行できる。   Although a large amount of calculation is required to perform image processing on image data, the video processor 114 performs image processing as a back-end processor of the CPU 101, thereby reducing the load on the CPU 101. Can be executed.

EC/KBC115は、コンピュータ100の電力管理を行うためのエンベデッドコントローラと、キーボード116およびポインティングデバイス117を制御するためのキーボードコントローラとを含むコントローラである。このEC/KBC115は、ユーザの操作に応じてコンピュータ100をパワーオン/オフする機能を有する。   The EC / KBC 115 is a controller that includes an embedded controller for managing power of the computer 100 and a keyboard controller for controlling the keyboard 116 and the pointing device 117. The EC / KBC 115 has a function of powering on / off the computer 100 in accordance with a user operation.

次に図3を参照して、本実施形態に係るコンピュータ100の機能例について説明する。図3は、コンピュータ100の機能ブロック例を示す図である。
コンピュータ100は、メディアコントロールプログラム150、OS160、通信部170、映像生成エンジン180等の機能ブロックを備えている。
メディアコントロールプログラム150は、指示部151及び画像選択部152等を備えており、OS160及び通信部170を介して、記憶装置300や表示装置400に対して指示を送信する機能等を有する。OS160は、コンピュータ100のハードウェアを制御する機能等を有し、また、UPnP API161及びHTTPサーバAPI162等を備えている。
Next, a function example of the computer 100 according to the present embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of functional blocks of the computer 100.
The computer 100 includes functional blocks such as a media control program 150, an OS 160, a communication unit 170, and a video generation engine 180.
The media control program 150 includes an instruction unit 151, an image selection unit 152, and the like, and has a function of transmitting an instruction to the storage device 300 and the display device 400 via the OS 160 and the communication unit 170. The OS 160 has a function of controlling the hardware of the computer 100 and includes a UPnP API 161, an HTTP server API 162, and the like.

通信部170は、LANコントローラ111及び無線LANコントローラ114等を含み、ネットワーク200を介して記憶装置300及び表示装置400との通信を行う。映像生成エンジン180は、記憶装置300やHDD110から入力された画像データに対するインデクシング処理や、当該入力された画像データに基づいた映像データを生成し、生成した映像データを表示装置400に出力する機能を有する。   The communication unit 170 includes a LAN controller 111, a wireless LAN controller 114, and the like, and communicates with the storage device 300 and the display device 400 via the network 200. The video generation engine 180 has a function of indexing the image data input from the storage device 300 or the HDD 110, generating video data based on the input image data, and outputting the generated video data to the display device 400. Have.

指示部151は、UPnP API161を介して、ネットワーク200に接続された記憶装置300及び表示装置400に対して各種動作の指示を行う。まず指示部151は、UPnPのSSDP(Simple service discovery protcol)と呼ばれるプロトコルを用いて、ネットワーク200に接続されているデバイスの存在及びデバイスの種類を認識する。   The instruction unit 151 instructs various operations to the storage device 300 and the display device 400 connected to the network 200 via the UPnP API 161. First, the instruction unit 151 recognizes the existence and type of a device connected to the network 200 using a protocol called UPnP SSDP (Simple service discovery protocol).

さらに指示部151は、UPnPで定義されるdevice description及びservice descriptionと呼ばれるXML(Extensible markup language)ファイルをネットワーク200に接続されているデバイスから取得することによって、デバイスで動作しているサービスの詳細を認識する。ここで、デバイスで動作しているサービスの詳細とは、例えば表示装置400が再生可能な画像や映像の形式についての情報等である。   Further, the instruction unit 151 obtains the details of the service operating in the device by acquiring an XML (Extensible Markup Language) file called device description and service description defined by UPnP from the device connected to the network 200. recognize. Here, the details of the service operating on the device include, for example, information on the format of images and videos that can be reproduced by the display device 400.

また指示部151は、記憶装置300がUPnPのCDS等によりネットワーク200上に公開している画像データについての情報を、UPnP API161を介してUPnPのCDSのBrowseアクションリクエストを送信することにより取得することができる。即ち指示部151は、Browseアクションリクエストを送信し、当該リクエストに対する応答であるBrowseアクションレスポンスをUPnP API161を介して受信することにより、当該Browseアクションレスポンスに含まれる、記憶装置300が記憶する画像データのタイトル名やURI等を含む、画像データについての情報を取得することができる。   In addition, the instruction unit 151 acquires information about image data that the storage device 300 discloses on the network 200 by UPnP CDS or the like by sending a UPnP CDS Browse action request via the UPnP API 161. Can do. That is, the instruction unit 151 transmits a Browse action request and receives a Browse action response as a response to the request via the UPnP API 161, whereby the image data included in the Browse action response and stored in the storage device 300 is received. Information about the image data including the title name and URI can be acquired.

そして指示部151は、Browseアクションレスポンスを受信した後、当該Browseアクションレスポンスに含まれる、記憶装置300に記憶された各画像データのURIを指定して、画像データ等を取得する為のデータ要求であるHTTP GETリクエストを送信する。続いて指示部151は、当該HTTP GETリクエストに対する応答であり、指定したURIの画像データを含むHTTPレスポンスを受信することにより、記憶装置300が記憶する画像データを取得する。なおHTTP GETリクエスト及びHTTPレスポンスの送受信は、HTTPサーバAPI162を介して行われる。そして指示部151は、取得した画像データに基づいた画像選択画面の生成を選択画面生成部153に指示する。   Then, after receiving the Browse action response, the instruction unit 151 designates the URI of each image data stored in the storage device 300 included in the Browse action response, and receives a data request for acquiring image data and the like. Send an HTTP GET request. Subsequently, the instruction unit 151 acquires image data stored in the storage device 300 by receiving an HTTP response that is a response to the HTTP GET request and includes image data of the designated URI. Note that transmission and reception of HTTP GET requests and HTTP responses are performed via the HTTP server API 162. Then, the instruction unit 151 instructs the selection screen generation unit 153 to generate an image selection screen based on the acquired image data.

また指示部151は、画像選択部152から映像生成指示及び選択画像のURI情報が入力された場合、映像生成エンジン180に対して当該選択画像のURIを指定したデータ要求の記憶装置300への送信を指示するとともに、当該映像生成エンジン180に対して映像の生成を指示する。   In addition, when the image generation instruction and the URI information of the selected image are input from the image selection unit 152, the instruction unit 151 transmits the data request specifying the URI of the selected image to the image generation engine 180 to the storage device 300. And instructing the video generation engine 180 to generate a video.

あるいは指示部151は、画像選択部152から選択画像の再生指示及び当該選択画像のURI情報を入力した場合、表示装置400に対して当該選択画像のURIを指定したデータ要求の記憶装置300への送信および当該選択画像の再生を指示し、映像生成エンジン180に対してデータ要求の送信及び映像の生成を指示しない。   Alternatively, when the instruction unit 151 inputs an instruction to reproduce the selected image and the URI information of the selected image from the image selection unit 152, the instruction unit 151 sends the data request to the storage device 300 that specifies the URI of the selected image to the display device 400. Instructs transmission and reproduction of the selected image, and does not instruct the video generation engine 180 to transmit a data request and generate a video.

また指示部151は、映像生成エンジン180が生成した映像データのURI情報を取得する。そして指示部151は、当該映像データのURIを指定したデータ要求の送信を表示装置400に指示するとともに、当該映像データの再生を表示装置400に指示する。   The instruction unit 151 acquires URI information of the video data generated by the video generation engine 180. The instruction unit 151 instructs the display device 400 to transmit a data request specifying the URI of the video data, and also instructs the display device 400 to reproduce the video data.

画像選択部152は、画像を選択する為の画像選択画面を生成してGPU104から出力させる機能、及び当該画像選択画面に対する操作入力に応じて画像を選択する機能を有する。   The image selection unit 152 has a function of generating an image selection screen for selecting an image and outputting it from the GPU 104, and a function of selecting an image in response to an operation input on the image selection screen.

ここで画像選択部152は選択画面生成部153を備え、当該選択画面生成部153は、取得した画像データに基づいた画像選択画面を生成する指示を指示部151から受けた場合、画像を含む画像選択画面を生成する。なお、当該画像選択画面については図5を参照して後述する。   Here, the image selection unit 152 includes a selection screen generation unit 153. When the selection screen generation unit 153 receives an instruction from the instruction unit 151 to generate an image selection screen based on the acquired image data, the image selection unit 152 includes an image including an image. Generate a selection screen. The image selection screen will be described later with reference to FIG.

そして画像選択部152は、画像選択画面に対するポインティングデバイス117やキーボード116からの操作入力をEC/KBC115から受け、当該操作入力に基づいて画像を選択する。また画像選択部152は、EC/KBC115から画像選択画面の映像再生ボタンに対する操作入力を受けた場合、指示部151に対して選択画像各々のURI情報及び映像生成指示を出力する。   The image selection unit 152 receives an operation input from the pointing device 117 and the keyboard 116 for the image selection screen from the EC / KBC 115, and selects an image based on the operation input. Further, when receiving an operation input to the video playback button on the image selection screen from the EC / KBC 115, the image selection unit 152 outputs URI information and a video generation instruction for each selected image to the instruction unit 151.

また画像選択部152は、インデックス情報データベース110Aを参照することにより、記憶装置300やHDD110に格納された複数の画像データの中から所定の選択条件を満たす画像データを選択することも可能である。   The image selection unit 152 can also select image data satisfying a predetermined selection condition from a plurality of image data stored in the storage device 300 or the HDD 110 by referring to the index information database 110A.

また画像選択部152は、EC/KBC115から選択画像の静止画像を再生する操作入力を受けた場合、指示部151に選択画像の再生指示及び当該選択画像各々についてのURI情報を出力する。   In addition, when receiving an operation input for reproducing a still image of the selected image from the EC / KBC 115, the image selection unit 152 outputs a reproduction instruction for the selected image and URI information for each selected image to the instruction unit 151.

映像生成エンジン180は、インデクシング処理部181及び映像生成部182等を備えており、画像データに基づく映像を生成するとともに、当該生成した映像をUPnPのCDS等によりネットワーク200上の各装置に公開することができる。   The video generation engine 180 includes an indexing processing unit 181 and a video generation unit 182, and generates a video based on the image data and publishes the generated video to each device on the network 200 by UPnP CDS or the like. be able to.

インデクシング処理部181は、インデックス情報データベース110Aを作成するためのインデクシング処理を実行する。インデクシング処理では、例えば、画像データから顔画像を検出する顔検出処理が実行される。ここで画像に複数の顔画像が含まれている場合は、当該複数の顔画像それぞれが検出される。   The indexing processing unit 181 executes an indexing process for creating the index information database 110A. In the indexing process, for example, a face detection process for detecting a face image from image data is executed. Here, when a plurality of face images are included in the image, each of the plurality of face images is detected.

顔画像の検出は、例えば、画像データの特徴を解析し、予め用意された顔画像特徴サンプルと類似する特徴を有する領域を探索することによって行うことができる。そして顔検出処理により、画像に含まれる各顔画像の位置(座標)およびサイズが検出される。このようにインデクシング処理部181は、画像に含まれる複数の顔画像の位置およびサイズを検出する顔画像検出部として機能する。   The detection of the face image can be performed, for example, by analyzing the feature of the image data and searching for a region having a feature similar to a face image feature sample prepared in advance. The position (coordinates) and size of each face image included in the image are detected by the face detection process. As described above, the indexing processing unit 181 functions as a face image detection unit that detects the positions and sizes of a plurality of face images included in an image.

またインデクシング処理部181は、予め用意された文字の特徴サンプルと類似する特徴を有する領域を画像データから探索することにより文字を検出する。ここで画像に写っている文字とは、例えば看板の文字等である。   Further, the indexing processing unit 181 detects a character by searching a region having a feature similar to a character feature sample prepared in advance from image data. Here, the characters shown in the image are, for example, characters on a signboard.

さらにインデクシング処理部181は、例えば撮像日時に基づき、記憶装置300やHDD110に格納された複数の画像データをグループ分けし、各グループを識別するための情報を生成する。ここでインデクシング処理部181は、例えば、撮像日時が時間的に連続する2つの画像データ間で、当該画像データの撮像日時が所定の期間を越えている場合に、その間を区切りとすることでグループ化を行う。   Further, the indexing processing unit 181 groups a plurality of image data stored in the storage device 300 or the HDD 110 based on, for example, the imaging date and time, and generates information for identifying each group. Here, for example, when the imaging date / time of the image data exceeds a predetermined period between two pieces of image data whose imaging date / time is continuous in time, the indexing processing unit 181 sets the interval between the two as image data. To do.

そしてインデクシング処理部181は、インデクシング処理により得られた顔画像についての情報や文字情報、グループ情報等を含むインデックス情報をHDD110に出力し、インデックス情報データベース110Aに格納する。   Then, the indexing processing unit 181 outputs index information including information about the face image obtained by the indexing process, character information, group information, and the like to the HDD 110, and stores the index information in the index information database 110A.

映像生成部182は、入力された画像データに基づく映像データを生成する。ここで映像生成部182は、入力された画像データから、例えばインデクシング処理により検出された人物の顔にフォーカスしたエフェクトを加えた映像を生成する。即ち映像生成部182は、入力された画像データに基づいた、当該画像とは異なる画像を含む複数のフレームから構成される映像を生成することができる。なお当該生成される映像データについては図7乃至図11を参照して後述する。   The video generation unit 182 generates video data based on the input image data. Here, the video generation unit 182 generates, from the input image data, a video in which an effect focused on a human face detected by, for example, an indexing process is added. In other words, the video generation unit 182 can generate a video composed of a plurality of frames including an image different from the image based on the input image data. The generated video data will be described later with reference to FIGS.

また映像生成部182は、複数の画像データを入力した場合、各々の画像データに基づく映像を、各々の画像データのインデックス情報に基づいた順番で表示する1の映像を生成することができる。即ち、例えば撮影日時が同一の画像群に基づいた映像を生成する場合、人物が写っていない風景画像データに基づく映像を他の画像データに基づく映像に先んじて表示することにより、何処で撮影した画像群かをユーザに認識できるような映像を生成する、あるいは、最も多くの人数が写っている画像データに基づく映像を他の画像データに基づく映像に先んじて表示することにより、誰と何をした時の画像群をユーザが認識できるような映像を生成することができる。また、例えば観光地の看板等の文字が含まれる画像に基づく映像を他の画像に基づく映像よりも先の順番に表示する映像を生成することによっても、何処で撮影した画像群かをユーザに認識できるような映像を生成することができる。   In addition, when a plurality of pieces of image data are input, the video generation unit 182 can generate one video that displays the video based on each image data in the order based on the index information of each image data. That is, for example, when generating a video based on a group of images having the same shooting date and time, the video based on the landscape image data in which no person is captured is displayed before the video based on the other image data. Create a video that allows the user to recognize the image group, or display a video based on the image data with the largest number of people ahead of the video based on other image data, and who and what It is possible to generate a video that allows the user to recognize the image group at the time. Also, for example, by generating a video that displays an image based on an image including characters such as a signboard of a tourist spot in an order ahead of a video based on another image, the user can determine where the image group was captured. Video that can be recognized can be generated.

次に図4を参照して、インデクシング処理部181により生成されるインデックス情報データベース110Aについて説明する。図4はインデックス情報データベース110Aの構成例を示す図である。当該インデックス情報データベースには、例えば画像IDA1、撮影日時A2、顔画像情報A3、顔画像A4、正面度A5、サイズA6、分類情報A7、物体情報A8、文字情報A9、グループ情報A10、URI情報A11等の情報が格納される。   Next, the index information database 110A generated by the indexing processing unit 181 will be described with reference to FIG. FIG. 4 is a diagram showing a configuration example of the index information database 110A. The index information database includes, for example, image IDA1, shooting date / time A2, face image information A3, face image A4, frontality A5, size A6, classification information A7, object information A8, character information A9, group information A10, URI information A11. Etc. are stored.

ここで画像IDA1は、各画像データに割り当てられる識別情報であり、撮像日時A2は、各静止画像の撮像日時を示す時刻情報である。顔画像情報A3は、静止画像データに人物が写っている場合に生成される情報であり、当該画像データに複数人が写っている場合は複数人数分生成される。   Here, the image IDA1 is identification information assigned to each image data, and the imaging date / time A2 is time information indicating the imaging date / time of each still image. The face image information A3 is information that is generated when a person is captured in the still image data, and is generated for a plurality of persons when a plurality of persons are captured in the image data.

そしてインデックス情報データベース110Aには、顔画像情報A3として、顔画像A4、正面度A5、サイズA6、分類情報A7等が格納される。ここで顔画像A4はインデクシング処理部181が画像データから抽出した顔画像であり、正面度A5は当該顔画像の正面度、サイズA6は当該顔画像のサイズである。そして分類情報A7は、同一人物であると推定される画像を分類するための情報であり、インデクシング処理部181が画像データから抽出した複数の顔画像をクラス分けすることにより生成される。   In the index information database 110A, face image A4, front degree A5, size A6, classification information A7, and the like are stored as face image information A3. Here, the face image A4 is a face image extracted from the image data by the indexing processing unit 181. The front degree A5 is the front degree of the face image, and the size A6 is the size of the face image. The classification information A7 is information for classifying images estimated to be the same person, and is generated by classifying a plurality of face images extracted from the image data by the indexing processing unit 181.

物体情報A8は、画像データに特定の対象物が写っている場合に生成される、当該対象物についての情報である。ここで特定の対象物とは、例えば建物、著名なモニュメント、植物、動物、山岳、自動車等であるがこれらに限るものではなく、何れのものであってもよい。   The object information A8 is information about the target object that is generated when the specific target object is reflected in the image data. Here, the specific object is, for example, a building, a famous monument, a plant, an animal, a mountain, a car, or the like, but is not limited thereto, and may be any object.

文字情報A9は、画像データに何らかの文字が写っている場合に生成される、当該文字についての情報である。
グループ情報A10は、記憶装置300やHDD110に格納された複数の画像データを、例えば撮像日時に基づいてグループ分けし、当該グループ分けされた各グループを識別するための情報である。
The character information A9 is information about the character that is generated when some character appears in the image data.
The group information A10 is information for grouping a plurality of image data stored in the storage device 300 or the HDD 110 based on, for example, the imaging date and time, and identifying the grouped group.

URI情報A11は、記憶装置300等に記憶されている場合に、当該画像データのURIを示す情報である。
つまりコンピュータ100は、インデックス情報データベース110Aから、各画像データが顔画像を含むか否か、誰の顔画像であるか、文字が写っているか否か、どのグループに属しているか、等を判別できる。そのためコンピュータ100は、インデックス情報データベース110Aを利用することで、所望の人物や文字が写っている画像データ等を、記憶装置300やHDD110に格納された1以上の画像データから検出することができる。
The URI information A11 is information indicating the URI of the image data when stored in the storage device 300 or the like.
That is, the computer 100 can determine from the index information database 110A whether each image data includes a face image, who's face image, whether a character is captured, and which group it belongs to. . Therefore, the computer 100 can detect image data or the like in which a desired person or character is captured from one or more image data stored in the storage device 300 or the HDD 110 by using the index information database 110A.

続いて図5を参照して、選択画面生成部153が生成する画像選択画面について説明する。図5は画像選択画面の一例を示す図である。
ここで画像選択画面には、画像一覧領域B1、画像領域B2、画像選択ボックスB3、映像再生ボタンB4、静止画再生ボタンB5、サーバ装置選択欄B6、表示装置選択欄B7等が表示される。
Next, the image selection screen generated by the selection screen generation unit 153 will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of an image selection screen.
Here, on the image selection screen, an image list area B1, an image area B2, an image selection box B3, a video reproduction button B4, a still image reproduction button B5, a server device selection column B6, a display device selection column B7, and the like are displayed.

ここで、画像一覧領域B1は、取得した画像を表示する為の領域であり、サーバ選択欄B6にて選択されたサーバ装置から取得した画像データが一覧表示される。なお、ここでサーバ装置とは、例えば記憶装置300等の、ネットワーク200に接続されたサーバ装置である。   Here, the image list area B1 is an area for displaying the acquired image, and the image data acquired from the server device selected in the server selection field B6 is displayed as a list. Here, the server device is a server device connected to the network 200 such as the storage device 300, for example.

そして画像領域B2は記憶装置300から取得された画像を表示する領域であり、当該画像領域B2には、画像だけでなく当該画像のタイトル等が表示されても良い。画像選択ボックスB3は、1あるいは複数の画像に対するユーザの選択操作を受けるためのものであり、各々の画像に対して設けられる。   The image area B2 is an area for displaying an image acquired from the storage device 300, and not only the image but also the title of the image may be displayed in the image area B2. The image selection box B3 is for receiving a user's selection operation for one or a plurality of images, and is provided for each image.

映像再生ボタンB4は、ユーザにより選択された画像に基づいた映像を再生する為のボタンであり、コンピュータ100は、当該ボタンに対する操作入力を受け付けると、図7にて後述するユーザ嗜好指定画面に遷移した後、前述の映像生成処理を行うとともに表示装置400に対して当該映像生成処理により生成された映像のデータ要求の送信及び当該映像の再生を指示する。なお当該映像再生ボタンB4は、画像選択画面において複数の画像データが選択された場合に表示し、単一の画像データが選択された場合には表示しなくともよい。   The video playback button B4 is a button for playing back a video based on the image selected by the user. When the computer 100 receives an operation input for the button, the computer 100 transitions to a user preference designation screen described later with reference to FIG. After that, the video generation process described above is performed, and the display device 400 is instructed to transmit a data request for the video generated by the video generation process and to reproduce the video. The video playback button B4 is displayed when a plurality of image data is selected on the image selection screen, and may not be displayed when a single image data is selected.

一方静止画再生ボタンB5は、ユーザにより選択された画像を、映像生成処理を行うことなく再生するためのボタンであり、コンピュータ100は当該静止画再生ボタンB5に対する操作入力を受けた場合、表示装置400に対して選択画像のURIを指定したデータ要求の送信及び選択画像の再生を指示し、表示装置400は選択画像を例えば当該選択画像のタイトル名順や作成日時順に表示する。   On the other hand, the still image reproduction button B5 is a button for reproducing the image selected by the user without performing the video generation process. When the computer 100 receives an operation input to the still image reproduction button B5, the display device The display device 400 displays the selected image in the order of the title name or the creation date and time of the selected image, for example, instructing 400 to transmit a data request specifying the URI of the selected image and to reproduce the selected image.

サーバ装置選択欄B6は、何れのサーバ装置の画像データを画像一覧領域B1に表示するかを選択する為の選択欄であり、UPnPのdevice descriptionやservice descriptionにより取得した、サーバ装置を識別する為の装置名等と、当該サーバ装置を選択する為の選択ボタンが配置される。なおサーバ装置選択欄B6には、コンピュータ100の記憶装置であるHDD110が選択肢として表示されてもよい。   The server device selection field B6 is a selection field for selecting which server device image data is to be displayed in the image list area B1, and for identifying the server device obtained by UPnP device description or service description. And a selection button for selecting the server device. In the server device selection field B6, the HDD 110 that is a storage device of the computer 100 may be displayed as an option.

表示装置選択欄B7は、映像や静止画を再生/表示するための選択欄でありUPnPのdevice descriptionやservice descriptionにより取得した、表示装置を識別する為の装置名等と、当該表示装置を選択する為の選択ボタンが配置される。なお表示装置選択欄B6には、コンピュータ100の表示装置であるLCD105が選択肢として表示されてもよい。   The display device selection field B7 is a selection field for reproducing / displaying a video or a still image. The display device selection field B7 is a selection field for identifying the display device obtained by UPnP device description or service description, and for selecting the display device. A selection button is arranged to do this. In the display device selection field B6, the LCD 105 that is the display device of the computer 100 may be displayed as an option.

また、画像一覧領域B1には、サーバ選択欄B6にて選択されたサーバ装置の画像データだけでなく、ユーザにより選択された画像データが表示されてもよい。即ち、例えばユーザがサーバAを選択して当該サーバAの画像を選択した後、当該サーバAの選択を解除した場合であっても、ユーザにより選択された画像データを当該画像一覧領域B1に表示してもよい。また、画像一覧領域B1内での画像の表示順は、例えばユーザにより選択された画像データが優先的に配置された表示順であってもよい。   In the image list area B1, not only the image data of the server device selected in the server selection field B6 but also image data selected by the user may be displayed. That is, for example, even when the user selects the server A, selects an image of the server A, and then cancels the selection of the server A, the image data selected by the user is displayed in the image list area B1. May be. Further, the display order of the images in the image list area B1 may be, for example, a display order in which image data selected by the user is preferentially arranged.

続いて図6を参照して画像選択画面の一例を説明する。なお図6に示す画像選択画面は、選択画面生成部153が、インデックス情報データベース110Aに基づいて生成する、記憶装置300やHDD110に格納された複数の画像データの中から所定の選択条件を満たす画像データを選択するための画面である。   Next, an example of the image selection screen will be described with reference to FIG. Note that the image selection screen illustrated in FIG. 6 is an image that satisfies a predetermined selection condition from among a plurality of image data stored in the storage device 300 or the HDD 110, which is generated by the selection screen generation unit 153 based on the index information database 110A. It is a screen for selecting data.

図6の画面選択画面には、顔画像一覧領域C1、顔画像領域C2、選択ボタンC3、映像再生ボタンC4、静止画再生ボタンC5,サーバ装置選択欄C6、表示装置選択欄C7等が表示される。   In the screen selection screen of FIG. 6, a face image list area C1, a face image area C2, a selection button C3, a video reproduction button C4, a still image reproduction button C5, a server device selection column C6, a display device selection column C7, and the like are displayed. The

顔画像一覧領域C1は、人物の顔画像を1つずつ選択肢として配置する領域である。また顔画像領域C2は、顔画像を表示する為の領域であり、当該領域の近傍には、顔画像を指定するための選択ボタンC3が配置される。   The face image list area C1 is an area where human face images are arranged as options one by one. The face image area C2 is an area for displaying a face image, and a selection button C3 for designating the face image is arranged in the vicinity of the area.

ここで画像選択部152は、選択ボタンC3に対する操作入力を受け、顔画像が指定されると、インデックス情報データベース110Aに基づいて、当該指定された顔画像の人物が写っている全ての画像データを選択することができる。なお、ここで選択する画像データは、サーバ装置選択欄C6において選択されたサーバ装置に記憶された画像データのうち、当該指定された顔画像の人物が写っている全ての画像データであってもよい。   Here, when the image selection unit 152 receives an operation input to the selection button C3 and a face image is designated, the image selection unit 152 selects all the image data in which the person of the designated face image is captured based on the index information database 110A. You can choose. Note that the image data to be selected here is all image data in which the person of the designated face image is captured among the image data stored in the server device selected in the server device selection field C6. Good.

また、映像再生ボタンC4、静止画再生ボタンC5、サーバ装置選択欄C6及び表示装置選択欄C7は、図5の映像再生ボタンB4、静止画再生ボタンB5、サーバ装置選択欄B6及び表示装置選択欄B7に夫々対応する機能を有する。   The video playback button C4, still image playback button C5, server device selection column C6 and display device selection column C7 are the video playback button B4, still image playback button B5, server device selection column B6 and display device selection column of FIG. Each has a function corresponding to B7.

続いて図7を参照して、ユーザ嗜好指定画面の一例を説明する。
当該ユーザ嗜好指定画面には、映像生成エンジン180が、画像データに基づいた映像を生成する際に、何れの対象物にフォーカスした映像を生成するかを指定/決定するための選択肢が表示される。ここで図7に示す画面には、例えば人物、風景、動物、看板、モニュメント、自動車等が選択肢として表示されている。また、人物については、更に何れの人物にフォーカスするかを指定する選択肢が表示される。
Next, an example of the user preference designation screen will be described with reference to FIG.
The user preference designation screen displays options for designating / determining which target object to generate a video when the video generation engine 180 generates a video based on the image data. . Here, on the screen shown in FIG. 7, for example, a person, a landscape, an animal, a signboard, a monument, a car, and the like are displayed as options. For the person, an option for designating which person is to be focused is displayed.

なおユーザ嗜好指定画面においては、前述した画像選択画面において選択された画像データに写っていない対象物についての選択肢を選択付加にする、あるいは当該選択肢を非表示にしてもよい。またユーザ嗜好指定画面においては、動画生成エンジン180が生成する映像にて用いられるエフェクト等を指定できるようにしてもよい。   Note that, on the user preference designation screen, options for an object that is not shown in the image data selected on the image selection screen described above may be selected and added, or the options may be hidden. In addition, on the user preference designation screen, an effect used in the video generated by the video generation engine 180 may be specified.

そして、当該ユーザ嗜好指定画面における操作入力受付が完了し、OKボタンへの操作を受けると、コンピュータ100は前述の映像生成処理を行うとともに表示装置400に対して当該映像生成処理により生成された映像のデータ要求の送信及び当該映像の再生を指示する。なお当該映像生成処理においては、ユーザ嗜好指定画面に対するユーザ操作入力に基づいた映像が生成されてもよいが、あるいは当該ユーザ嗜好指定画面に対するユーザ操作入力を受けることなく映像が生成されてもよい。この場合、例えば人物や風景などが満遍なくフォーカスされた映像等が生成される。   When the operation input reception on the user preference designation screen is completed and an operation to the OK button is received, the computer 100 performs the above-described video generation processing and the video generated by the video generation processing on the display device 400. Instructing the transmission of the data request and reproduction of the video. In the video generation process, a video based on a user operation input on the user preference designation screen may be generated, or a video may be generated without receiving a user operation input on the user preference designation screen. In this case, for example, a video or the like in which a person or a landscape is uniformly focused is generated.

次に図8乃至図12を参照して、本実施形態に係る映像生成エンジン180が生成する映像について説明する。図8は、映像エンジン180が生成する映像の一例である。   Next, a video generated by the video generation engine 180 according to the present embodiment will be described with reference to FIGS. FIG. 8 is an example of a video generated by the video engine 180.

図8に示す映像においては、まず、図8(A)に示すように、複数の顔画像が複数の表示エリアに分散して配置された状態で表示される。なお当該複数の顔画像は、元の画像データから抽出された顔画像に基づくものである。そして時間の経過にしたがって各表示エリアに表示される画像が徐々に元の画像データのサイズに近づくよう変化していき、最終的に図8(C)に示すように、画像の全体が、複数の表示エリアから構成される表示画面全体に表示され、当該図8(C)の状態は一定時間継続する。即ち、ユーザには一定時間静止して見える。   In the video shown in FIG. 8, first, as shown in FIG. 8A, a plurality of face images are displayed in a state of being distributed and arranged in a plurality of display areas. The plurality of face images are based on face images extracted from the original image data. Then, as time elapses, the image displayed in each display area gradually changes so as to approach the size of the original image data. Finally, as shown in FIG. 8C, and the state shown in FIG. 8C continues for a certain period of time. That is, it seems to the user to stand still for a certain time.

図9に示す映像では静止画像全体がぼかして表示される。そして図9(A)のように、当該静止画像の一部を覆う枠が当該静止画上に表示され、当該枠により囲まれる領域がハイライト表示される。なおことのとき、ハイライトされていない領域(枠の外の領域)は、明度が下げられたり、ぼかしたりして表示される。この枠が図9(B)のように、静止画像に含まれる顔画像上を順番に移動することにより、当該静止画の顔画像が一つずつ順番にハイライト表示される。そして、例えば静止画の顔画像全てが表示されると、図9(C)に示すような全体画像が、一定時間静止して表示される。   In the video shown in FIG. 9, the entire still image is displayed blurred. Then, as shown in FIG. 9A, a frame covering a part of the still image is displayed on the still image, and a region surrounded by the frame is highlighted. At that time, the unhighlighted area (the area outside the frame) is displayed with the brightness lowered or blurred. As this frame moves in order on the face image included in the still image as shown in FIG. 9B, the face images of the still image are highlighted and displayed one by one. For example, when all of the still image face images are displayed, the entire image as shown in FIG. 9C is displayed stationary for a certain period of time.

図10に示す映像においては、人物毎に顔画像が拡大されて表示される。ここで、当該映像では、図10(A)の画像のように、画面に画像全体が静止して表示され、画像内に含まれる複数の顔画像が一つずつ拡大表示される。そして当該映像では、例えば写真の右方にいる人物から順番に、図10(B)のような顔画像が拡大表示される。なお図10(B)では、右から2番目にいる人物の顔が拡大されている。   In the video shown in FIG. 10, the face image is enlarged and displayed for each person. Here, in the video, as in the image of FIG. 10A, the entire image is displayed stationary on the screen, and a plurality of face images included in the image are enlarged and displayed one by one. In the video, for example, face images as shown in FIG. 10B are enlarged and displayed in order from the person on the right side of the photograph. In FIG. 10B, the face of the second person from the right is enlarged.

図11に示す映像においては、表示されている画像が次の画像に切り替わる。まず図11(A)に示すように画像D1が一定時間静止して表示され、続いて図10(B)に示すような、画像D1の一部を覆うグラフィックス画像である図形D2が、例えば回転しながら画像D1の中心等に向かって移動する。そして図形D2が中心に到達すると、図形D2の領域と一致する領域に画像D1とは異なる次の画像D3が図11(C)に示すように表示される。続いて図10(D)に示すように、図形D2は例えば回転しながら拡大し、当該図形D2内に表示される画像D3の領域も拡大する。そして図形D2が拡大することにより、図10(E)に示すように画像D3の全体が表示される。   In the video shown in FIG. 11, the displayed image is switched to the next image. First, as shown in FIG. 11A, an image D1 is displayed stationary for a certain period of time, and then, as shown in FIG. 10B, a graphic D2 that is a graphics image covering a part of the image D1 is, for example, It moves toward the center of the image D1 while rotating. When the figure D2 reaches the center, the next image D3 different from the image D1 is displayed in an area that coincides with the area of the figure D2, as shown in FIG. Subsequently, as shown in FIG. 10D, the figure D2 is enlarged while rotating, for example, and the area of the image D3 displayed in the figure D2 is also enlarged. Then, when the figure D2 is enlarged, the entire image D3 is displayed as shown in FIG.

図12に示す映像では、図12(A)に示される画像が、図12(B)に示される次の映像に遷移する。即ち図12(A)に示されている山の画像が、所謂モーフィング映像のように図12(B)のような画像を経て、図12(C)に示されている建物の画像に変化する。ここで映像生成エンジン180は、図12(A)及び(C)の画像データに基づいて、当該画像が遷移/変形する間の画像を補完して生成する。   In the video shown in FIG. 12, the image shown in FIG. 12A transitions to the next video shown in FIG. That is, the mountain image shown in FIG. 12 (A) changes to the building image shown in FIG. 12 (C) through the image shown in FIG. 12 (B) like a so-called morphing image. . Here, the video generation engine 180 complements and generates an image during the transition / deformation of the image based on the image data of FIGS.

なお映像生成部182は、インデクシング処理部182が各々の画像に対して顔画像、当該顔画像の位置及びサイズ等を検出することにより、検出した顔にフォーカスした図8乃至図10のような映像を生成することができるが、映像生成部182は顔画像だけでなく、例えばインデクシング処理部182による各種対象物のインデクシング結果に応じて、看板の文字や観光地のオブジェ、山、自動車、動物等にフォーカスした映像を生成してもよく、またフォーカスする対象物に応じて異なる、当該対象物に適したエフェクトをかけた映像を生成してもよい。   The video generation unit 182 detects the face image, the position and size of the face image, and the like as shown in FIGS. 8 to 10 focused on the detected face by the indexing processing unit 182. However, the video generation unit 182 is not limited to the face image, for example, depending on the indexing result of various objects by the indexing processing unit 182, the characters on the signboard, the object of the tourist destination, the mountain, the car, the animal, etc. An image focused on the object may be generated, or an image applied with an effect suitable for the object may be generated depending on the object to be focused.

次に図13を参照して、映像生成エンジン180が生成する映像データの構成例について説明する。映像データV1は、画像1〜Nに基づく夫々のシーンから構成され、また当該夫々の画像のシーンは、画像が静止して表示されるシーンである静止画シーンと、当該画像に基づく画像が動くシーンであるエフェクトシーンとから構成される。   Next, a configuration example of video data generated by the video generation engine 180 will be described with reference to FIG. The video data V1 is composed of scenes based on the images 1 to N, and the scenes of the respective images are a still image scene that is a scene in which the images are displayed stationary, and an image based on the images moves. It consists of an effect scene that is a scene.

図13において、画像1及び画像2のシーンでは、当該シーンの前半にエフェクトシーンが、当該シーンの後半に静止画シーンが表示される。即ちこれらシーンでは、例えば図8や図9のような映像が表示される。また、画像シーン3のシーンでは、当該シーンの前半に静止画シーンが、後半にエフェクトシーンが表示される。即ち画像3のシーンでは、画像3に基づいた、例えば図10に示したような映像が表示される。   In FIG. 13, in the scenes of images 1 and 2, an effect scene is displayed in the first half of the scene and a still image scene is displayed in the second half of the scene. That is, in these scenes, for example, images as shown in FIGS. 8 and 9 are displayed. In the scene of the image scene 3, a still image scene is displayed in the first half of the scene and an effect scene is displayed in the second half. That is, in the scene of the image 3, for example, an image based on the image 3 as shown in FIG. 10 is displayed.

画像N−1のシーンでは、シーン前半に静止画シーンS4が表示され、後半にエフェクトシーンE4が表示される。ここで当該エフェクトシーンE4は、例えば図11や図12に示したような、異なる2の画像を切り替えるエフェクトであり、当該エフェクトシーンE4の途中から次の画像Nの一部が表示される。そして画像Nのシーンでは、エフェクトシーンE4が終了すると、静止画シーンS5が表示される。   In the scene of the image N-1, the still image scene S4 is displayed in the first half of the scene, and the effect scene E4 is displayed in the second half. Here, the effect scene E4 is an effect for switching two different images as shown in FIGS. 11 and 12, for example, and a part of the next image N is displayed from the middle of the effect scene E4. In the scene of the image N, when the effect scene E4 ends, a still image scene S5 is displayed.

なお、映像データV1において、夫々の画像のシーンにはどのようなエフェクトが適用されてもよい。また、映像データV1を構成する夫々の画像のシーンの順番は、夫々の画像のインデックス情報に基づいていてもよい。例えば人物が写っていない風景の画像のシーンや、あるいは最も多くの人数が写っている画像のシーンを映像データV1の先頭に表示するようにしてもよい。   In the video data V1, any effect may be applied to each image scene. Further, the order of the scenes of the respective images constituting the video data V1 may be based on the index information of the respective images. For example, a scene image of a landscape in which no person is shown or an image scene in which the largest number of people is shown may be displayed at the top of the video data V1.

次に図14を参照して、インデックス情報データベースの生成に係る処理の順序について説明する。図14は、インデクシング処理部181によるインデクシング処理の処理フロー例を示す図である。   Next, with reference to FIG. 14, the order of processing relating to generation of the index information database will be described. FIG. 14 is a diagram illustrating a processing flow example of indexing processing by the indexing processing unit 181.

まずメディアコントロールプログラム150は、CDSのBrowseアクションにより、記憶装置300から画像情報を取得する(S701)。なお指示部151は、定期的、例えば一日毎に、ネットワーク200を介して接続された装置に対して画像情報を取得する。   First, the media control program 150 acquires image information from the storage device 300 by a Browse action of CDS (S701). Note that the instruction unit 151 acquires image information for a device connected via the network 200 periodically, for example, every day.

そして指示部151は、画像情報に含まれる画像データのURIを取得すると、当該URIを指定したデータ要求を送信する(S702)。なお指示部151は、URIに対して画像データを要求する際に、当該要求の以前にインデクシング処理部181がインデクシングした画像データのURIに対して画像データを要求しないことも可能である。即ち指示部151は、取得したURIとインデックス情報データベース110AのURI情報とを参照/比較することにより、当該取得したURIのうち、インデックス情報データベース110Aに含まれないURIを指定したデータ要求を送信することができる。   When the instruction unit 151 obtains the URI of the image data included in the image information, the instruction unit 151 transmits a data request designating the URI (S702). When the instruction unit 151 requests image data from the URI, the instruction unit 151 may not request image data from the URI of the image data indexed by the indexing processing unit 181 before the request. That is, the instruction unit 151 transmits a data request specifying a URI that is not included in the index information database 110A among the acquired URIs by referring to / compare the acquired URI and the URI information of the index information database 110A. be able to.

そして当該データ要求に対する画像データを受信すると、映像生成エンジン180は、当該画像データに対するインデクシング処理を行い(S703)、当該インデクシング処理により得られた情報をインデックス情報データベース110Aに書き込む(S704)。   Upon receiving the image data corresponding to the data request, the video generation engine 180 performs an indexing process on the image data (S703), and writes information obtained by the indexing process in the index information database 110A (S704).

続いて図15を参照して、映像生成エンジン180による映像生成に係る処理フロー例について説明する。
まず指示部151は、UPnPのdevice descriptionやservice descriptionによるサービス情報要求を送信し、当該要求に対する表示装置400からの応答を受信することにより、表示装置400についての情報を取得する(S801)。なお当該表示装置400についての情報は、当該表示装置400が対応する画像フォーマットの情報を含んでいる。
Next, with reference to FIG. 15, an example of a processing flow related to video generation by the video generation engine 180 will be described.
First, the instruction unit 151 transmits a service information request by UPnP device description or service description, and receives a response from the display device 400 to the request, thereby acquiring information about the display device 400 (S801). Note that the information about the display device 400 includes information on the image format that the display device 400 supports.

続いて指示部151は、UPnPのCDSのBrowseアクションリクエストを送信し、当該Browseアクションリクエストに対する記憶装置300からのBrowseアクションレスポンスを受信することにより、記憶装置300に記憶された画像データのファイル名やURI情報等を取得する(S802)。   Subsequently, the instruction unit 151 transmits a Browse action request of UPnP CDS, and receives a Browse action response from the storage device 300 in response to the Browse action request, whereby the file name of the image data stored in the storage device 300 is changed. URI information and the like are acquired (S802).

そして指示部151は、S802にて取得した、画像データのURI情報に基づいて、画像データのURIを指定したデータ要求を送信し、記憶装置300から画像データを受信する(S803)。なお記憶装置300に記憶されている画像データには各々URIが割り当てられており、複数の画像データを取得する場合、指示部151は当該各々の画像データに割り当てられたURIを指定した要求を送信する。   Then, the instruction unit 151 transmits a data request designating the URI of the image data based on the URI information of the image data acquired in S802, and receives the image data from the storage device 300 (S803). Note that each image data stored in the storage device 300 is assigned a URI, and when acquiring a plurality of image data, the instruction unit 151 transmits a request specifying the URI assigned to each image data. To do.

次に選択画面生成部153は、受信した画像データに基づいて、画像選択画面を生成し、当該生成した画像選択画面をGPU104から出力させる(S804)。なお、ここでGPU104から出力する画面は、図5及び図6に示した画面のうちどちらの画面であってもよい。   Next, the selection screen generation unit 153 generates an image selection screen based on the received image data, and outputs the generated image selection screen from the GPU 104 (S804). Here, the screen output from the GPU 104 may be either one of the screens shown in FIGS. 5 and 6.

また選択画面生成部153は、図6に示した画像選択画面を生成する場合、インデックス情報データベース110Aに画像データが格納されていると、記憶装置300から画像データを取得することなく、当該データベースの画像データを利用して画像選択画面を生成してもよい。   When the selection screen generation unit 153 generates the image selection screen shown in FIG. 6, if image data is stored in the index information database 110 </ b> A, the selection screen generation unit 153 does not acquire the image data from the storage device 300. An image selection screen may be generated using image data.

続いて画像選択部152は、画像選択画面に対する選択操作入力に基づいて画像を選択する(S805)。また画像選択部152は、画像選択画面に対する操作入力に基づいて、画像や映像を再生/表示する表示装置を選択する(S806)。   Subsequently, the image selection unit 152 selects an image based on a selection operation input on the image selection screen (S805). Further, the image selection unit 152 selects a display device for reproducing / displaying an image or video based on an operation input on the image selection screen (S806).

次に画像選択部152は、画像選択画面に対する、静止画を再生する操作入力を受けた場合(S807のNo)、指示部151に対して選択画像の再生指示及び当該選択画像のURI情報を出力し、指示部151は、表示装置400に対して、画像選択部152が選択した選択画像のURIを指定したデータ要求を記憶装置300に対して送信して当該選択画像を取得し、当該取得した選択画像を再生するよう指示する(S808)。なおコンピュータ100は、静止画を再生する操作入力を受けた場合、映像を生成しなくてよい。   Next, when receiving an operation input for reproducing a still image on the image selection screen (No in S807), the image selection unit 152 outputs a reproduction instruction for the selected image and URI information of the selected image to the instruction unit 151. Then, the instruction unit 151 transmits the data request specifying the URI of the selected image selected by the image selection unit 152 to the display device 400, acquires the selected image, and acquires the acquired image. An instruction is given to reproduce the selected image (S808). Note that the computer 100 does not have to generate a video when receiving an operation input for reproducing a still image.

一方S807において映像再生の操作入力を受け付けた場合(S807のYes)、選択画面生成部153は、ユーザ嗜好指定画面を生成し、当該生成した画面をGPU104から出力させ、コンピュータ100は当該画面に対する操作入力を受け付ける(S809)。次に画像選択部152は、指示部151に対して映像生成指示及び選択操作を受けた画像データのURI情報を映像生成エンジン180に出力するとともに、ユーザ嗜好指定画面に対する操作入力に基づいた映像の生成を映像生成エンジン180に指示する。なお、指示部151は、映像生成エンジン180に対して所定の画像フォーマットの映像の生成を指示することもできる。   On the other hand, when an operation input for video playback is received in S807 (Yes in S807), the selection screen generation unit 153 generates a user preference designation screen, causes the generated screen to be output from the GPU 104, and the computer 100 operates the screen. The input is accepted (S809). Next, the image selection unit 152 outputs the URI information of the image data that has received the video generation instruction and the selection operation to the instruction unit 151 to the video generation engine 180, and also displays the video based on the operation input on the user preference designation screen. The generation is instructed to the video generation engine 180. The instruction unit 151 can also instruct the video generation engine 180 to generate a video having a predetermined image format.

ここで所定の画像フォーマットとは、例えばDLNAのDMRで一般的に表示可能なフォーマットであるMPEG−2や、あるいはS801で取得した表示装置400が表示可能な映像フォーマット等である。そして映像生成エンジン180は、入力されたURIを指定したデータ要求を送信することにより、記憶装置300から画像データを受信する(S810)。なおここで映像生成エンジン180は、HDD110に記憶された画像データを取得しても良い。   Here, the predetermined image format is, for example, MPEG-2 which is a format generally displayable by DLNA DMR, or a video format which can be displayed by the display apparatus 400 acquired in S801. Then, the video generation engine 180 receives the image data from the storage device 300 by transmitting a data request designating the input URI (S810). Here, the video generation engine 180 may acquire image data stored in the HDD 110.

そして映像生成エンジン180は、取得した画像データに基づいた映像データの生成を開始し(S811)、当該映像データが利用可能であることをネットワーク200に対して公開する。なおここで生成する映像データは、指示部151から指示された画像フォーマットの映像であってもよい。そして映像生成エンジン180は、表示装置400から、当該映像データのURIを指定したデータ要求を受けると、当該映像データを表示装置400に出力する(S812)。なおS806において、コンピュータ100が当該コンピュータ100のLCD105を表示装置とする選択操作を受けた場合、S812において映像生成エンジン180は、生成した映像をGPU104に出力する。   Then, the video generation engine 180 starts generating video data based on the acquired image data (S811), and discloses to the network 200 that the video data is available. Note that the video data generated here may be video in an image format instructed from the instruction unit 151. Upon receiving a data request designating the URI of the video data from the display device 400, the video generation engine 180 outputs the video data to the display device 400 (S812). If the computer 100 receives a selection operation using the LCD 105 of the computer 100 as a display device in S806, the video generation engine 180 outputs the generated video to the GPU 104 in S812.

次に図16を参照して、本実施形態の記憶装置300、メディアコントロールプログラム150、映像生成エンジン180、表示装置400の処理順序について説明する。図16は、メディアコントロールプログラム150、映像生成エンジン180、記憶装置300、表示装置400による処理フローの例を示す図である。   Next, the processing sequence of the storage device 300, the media control program 150, the video generation engine 180, and the display device 400 of this embodiment will be described with reference to FIG. FIG. 16 is a diagram illustrating an example of a processing flow by the media control program 150, the video generation engine 180, the storage device 300, and the display device 400.

まずメディアコントロールプログラム150は、UPnPのdevice descriptionやservice descriptionを用いたサービス情報要求により表示装置400についての情報を取得する(S901)。次にメディアコントロールプログラム150はBrowseアクションにより画像データについての情報を記憶装置300から受信する(S902)。そしてメディアコントロールプログラム150は、画像データについての情報に含まれる画像データのURIを指定した画像データ要求を送信し、記憶装置300から画像データを受信する(S903)。   First, the media control program 150 acquires information about the display device 400 in response to a service information request using UPnP device description or service description (S901). Next, the media control program 150 receives information about the image data from the storage device 300 by the Browse action (S902). Then, the media control program 150 transmits an image data request specifying the URI of the image data included in the information about the image data, and receives the image data from the storage device 300 (S903).

続いてメディアコントロールプログラム150は、画像を選択するための画像選択画面を生成し、当該画像選択画面をGPU104からLCD105に出力させる(S904)。ここでメディアコントロールプログラム150は、画像選択画面に表示された表示装置選択欄のボタンに対する操作入力に基づいて、映像を表示する表示装置を選択する(S905)。そしてメディアコントロールプログラム150は、当該画像選択画面に対する操作入力を受け付けることにより画像を選択し(S906)、またユーザ嗜好指定画面に対する操作入力を受ける。   Subsequently, the media control program 150 generates an image selection screen for selecting an image, and outputs the image selection screen from the GPU 104 to the LCD 105 (S904). Here, the media control program 150 selects a display device for displaying an image based on an operation input to a button in the display device selection field displayed on the image selection screen (S905). Then, the media control program 150 selects an image by receiving an operation input on the image selection screen (S906), and receives an operation input on the user preference designation screen.

そしてメディアコントロールプログラム150は、映像生成エンジン180に対し、S905にて選択された画像データのURIを含むデータ要求の送信と映像生成とを指示する(S907)。またこのときメディアコントロールプログラム150は、映像生成エンジン180に対して、所定の画像フォーマットでの映像の生成と、ユーザ嗜好指定画面に対するユーザ操作入力に基づいた映像の生成とを指示する(S908)。   Then, the media control program 150 instructs the video generation engine 180 to transmit a data request including the URI of the image data selected in S905 and generate the video (S907). At this time, the media control program 150 instructs the video generation engine 180 to generate a video in a predetermined image format and to generate a video based on a user operation input on the user preference designation screen (S908).

映像生成エンジン180は、メディアコントロールプログラム150からデータ要求指示を受信すると、当該指示に含まれるURIの画像データを記憶装置300から取得する(S909)。なおURIは画像データ毎に割り振られており、複数の画像データを取得する場合、映像生成エンジン180は複数のURIの画像データを取得する。   When receiving the data request instruction from the media control program 150, the video generation engine 180 acquires the URI image data included in the instruction from the storage device 300 (S909). The URI is allocated for each image data, and when acquiring a plurality of image data, the video generation engine 180 acquires the image data of a plurality of URIs.

そして映像生成エンジン180は、取得した画像データに基づいて、図8乃至図12に示したようなシーンを含む、図13に示したような構成の映像の生成を開始する(S910)。またこのとき映像生成エンジン180が生成する映像データにはURIが割り振られ、当該URIを含む、当該映像データについての情報は例えばUPnPのCDS等によりネットワーク200上の各装置に公開される。   Based on the acquired image data, the video generation engine 180 starts generating a video having the configuration shown in FIG. 13 including the scenes shown in FIGS. 8 to 12 (S910). At this time, a URI is assigned to the video data generated by the video generation engine 180, and information about the video data including the URI is disclosed to each device on the network 200 by, for example, a UPnP CDS.

続いてメディアコントロールプログラム150は、映像生成エンジン180が生成する映像データのURIを取得し、表示装置400に対して、当該URIを含むデータ要求を指示するとともに、取得した映像データの再生を指示する(S911)。   Subsequently, the media control program 150 acquires the URI of the video data generated by the video generation engine 180, instructs the display device 400 to request data including the URI, and instructs the reproduction of the acquired video data. (S911).

表示装置400は、メディアコントロールプログラム150からの、映像データのURIを含むデータ要求の送信指示を受けると、当該指示に含まれるURIから映像データを取得する(S912)。そしてメディアコントロールプログラム150は、表示装置400に対して映像の表示を指示し(S913)、表示装置400は取得した映像データをデコードして表示する(S914)。   Upon receiving the data request transmission instruction including the URI of the video data from the media control program 150, the display device 400 acquires the video data from the URI included in the instruction (S912). Then, the media control program 150 instructs the display device 400 to display a video (S913), and the display device 400 decodes and displays the acquired video data (S914).

なお図16に示す処理において、メディアコントロールプログラム150及び映像生成エンジン180は、HDD110に記憶された画像データを取得してもよく、また映像生成エンジン180は、生成した映像をコンピュータ100のLCD105に出力しても構わない。   In the processing shown in FIG. 16, the media control program 150 and the video generation engine 180 may acquire image data stored in the HDD 110, and the video generation engine 180 outputs the generated video to the LCD 105 of the computer 100. It doesn't matter.

本実施形態に拠れば、コンピュータ100はネットワーク200に接続された記憶装置300や、HDD110に記憶された画像データに基づいた映像データを生成することができる。そしてコンピュータ100は、生成した映像データを、ネットワーク200を介して接続された表示装置400に出力するとともに、当該表示装置400に対して当該映像データの再生を指示できる。これによりコンピュータ100は、ネットワークを介して接続された機器から取得した画像データに基づく、ユーザにとって好適な映像を、ネットワークを介して接続された機器に表示させることができる。   According to this embodiment, the computer 100 can generate video data based on the image data stored in the storage device 300 connected to the network 200 or the HDD 110. Then, the computer 100 outputs the generated video data to the display device 400 connected via the network 200 and can instruct the display device 400 to reproduce the video data. Thereby, the computer 100 can display a video suitable for the user based on the image data acquired from the device connected via the network on the device connected via the network.

またコンピュータ100は、取得した画像データに対する顔検出等のインデクシング処理を行い、当該インデクシング処理により得られた情報に基づいて映像データを生成することや、画像データ毎のインデックス情報を格納し、当該インデックス情報に基づいて、例えば人物毎の画像データを選択することにより、ユーザにとって好適な映像データを生成/出力することができる。   Further, the computer 100 performs indexing processing such as face detection on the acquired image data, generates video data based on information obtained by the indexing processing, stores index information for each image data, and stores the index data. For example, by selecting image data for each person based on the information, video data suitable for the user can be generated / output.

またコンピュータ100は、表示装置400から当該表示装置400が再生可能な画像形式についての情報を取得することにより、表示装置400が再生可能な画像形式の映像データを生成/出力することができる。あるいは、コンピュータ100は、DLNAで一般的に用いられる画像形式の映像データを生成することにより、表示装置400が再生可能な画像形式の映像データを出力できる。   Further, the computer 100 can generate / output video data in an image format that can be reproduced by the display device 400 by acquiring information about an image format that can be reproduced by the display device 400 from the display device 400. Alternatively, the computer 100 can output video data in an image format that can be reproduced by the display device 400 by generating video data in an image format generally used in DLNA.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具現化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

以下に、本願の原出願のその親出願における特許査定時の特許請求の範囲に記載された発明を付記する。   The invention described in the claims at the time of patent appraisal in the parent application of the original application of the present application will be added below.

[1]ネットワークを介して、1以上のサーバ装置から1以上の画像を取得する取得手段と、前記取得した画像から、静止画を含む第1のシーンと前記静止画に基づく動画を含む第2のシーンとを有する映像データを生成する生成手段と、前記生成手段で生成された前記映像データの再生指示と前記映像データの存在場所とを、表示装置に前記ネットワークを介して送信する第1の送信手段と、前記表示装置からの要求に応じて、前記映像データを、画像処理装置本体から前記表示装置に前記ネットワークを介して送信する第2の送信手段とを備える画像処理装置。   [1] An acquisition means for acquiring one or more images from one or more server devices via a network, and a second scene including a first scene including a still image and a moving image based on the still image from the acquired image. A first generation unit configured to generate video data including a scene, a reproduction instruction for the video data generated by the generation unit and a location of the video data to be transmitted to the display device via the network. An image processing apparatus comprising: transmission means; and second transmission means for transmitting the video data from the image processing apparatus main body to the display apparatus via the network in response to a request from the display apparatus.

[2]画像の構成要素となる複数の種類の画像要素にそれぞれ対応した複数の選択肢を出力する手段と、前記出力された複数の選択肢の中からの選択操作により任意の画像要素を指定する手段と、をさらに備え、前記生成手段は、前記指定された画像要素にフォーカスした映像データを、前記取得手段により取得された画像から生成する前記[1]記載の画像処理装置。   [2] Means for outputting a plurality of options respectively corresponding to a plurality of types of image elements which are constituent elements of an image, and means for designating an arbitrary image element by a selection operation from the plurality of output options The image processing apparatus according to [1], wherein the generation unit generates video data focused on the designated image element from the image acquired by the acquisition unit.

[3]前記映像データは、静止画を含む第1のシーンと前記静止画中の少なくとも一部の動きを含む動画を備えた第2のシーンとを有する前記[1]記載の画像処理装置。   [3] The image processing device according to [1], wherein the video data includes a first scene including a still image and a second scene including a moving image including at least a part of motion in the still image.

[4]前記映像データは、静止画を含む第1のシーンと前記静止画上に重ね合わされた少なくとも一つの動く部分を含む動画を備えた第2のシーンとを有する前記[1]記載の画像処理装置。   [4] The image according to [1], wherein the video data includes a first scene including a still image and a second scene including a moving image including at least one moving part superimposed on the still image. Processing equipment.

[5]前記映像データのシーンの順序を関連付けた、前記取得した画像についてのインデックス情報を生成するインデクシング手段を更に備える前記[1]記載の画像処理装置。   [5] The image processing apparatus according to [1], further including an indexing unit that generates index information about the acquired image in association with a scene order of the video data.

[6]前記サーバ装置から少なくとも一つの画像を選択する選択手段を更に備え、前記取得手段は、前記選択された少なくとも一つの画像を取得する前記[1]記載の画像処理装置。   [6] The image processing device according to [1], further including a selection unit that selects at least one image from the server device, wherein the acquisition unit acquires the at least one selected image.

[7]前記サーバ装置からの選択対象となる画像についての情報を表示し、当該表示した情報を選択可能とする表示手段を更に備え、前記選択手段は、選択された前記情報に基づく少なくとも一つの画像を選択する前記[6]記載の画像処理装置。   [7] The display device further includes display means for displaying information about the image to be selected from the server device and enabling the displayed information to be selected, and the selection means includes at least one based on the selected information. The image processing device according to [6], wherein an image is selected.

[8]前記第1の送信手段は、前記選択手段が選択した少なくとも一つの画像の再生指示を、前記ネットワークを介して前記表示装置に送信し、前記生成手段は、前記選択された少なくとも一つの画像の再生指示を前記第1の送信手段が前記表示装置に送信した場合、前記映像データを生成しない前記[6]記載の画像処理装置。   [8] The first transmission unit transmits an instruction to reproduce at least one image selected by the selection unit to the display device via the network, and the generation unit transmits the at least one selected item. The image processing device according to [6], wherein the video data is not generated when the first transmission unit transmits an image reproduction instruction to the display device.

[9]前記映像データを生成する処理と、前記選択された少なくとも一つの画像の再生指示を前記第1の送信手段が前記表示装置に送信する処理と、のうちの何れかを選択するためのボタンを含む画面を出力する出力手段を更に備える前記[8]記載の画像処理装置。   [9] For selecting one of a process of generating the video data and a process of the first transmission unit transmitting an instruction to reproduce the selected at least one image to the display device The image processing apparatus according to [8], further including output means for outputting a screen including buttons.

[10]前記生成手段は、前記表示装置が表示可能な画像形式の前記映像データを生成する前記[1]記載の画像処理装置。   [10] The image processing device according to [1], wherein the generation unit generates the video data in an image format that can be displayed by the display device.

[11]前記取得手段は、前記ネットワークを介して前記画像形式についての情報を取得し、前記生成手段は、前記取得された情報に基づいた画像形式の映像データを生成する前記[10]記載の画像処理装置。   [11] The acquisition unit according to [10], wherein the acquisition unit acquires information about the image format via the network, and the generation unit generates video data of an image format based on the acquired information. Image processing device.

[12]前記取得手段は、前記ネットワーク上のサーバ装置によって公開された1以上の画像を取得し、前記生成手段は、この取得した画像から前記映像データを生成し、この生成された映像データを前記ネットワークを介して公開する公開手段と、前記公開された映像データに対するデータ要求に応じて当該映像データを出力する出力手段とをさらに備える前記[1]記載の画像処理装置。   [12] The acquisition unit acquires one or more images published by the server device on the network, and the generation unit generates the video data from the acquired images, and the generated video data The image processing apparatus according to [1], further comprising: a disclosure unit that releases the data via the network; and an output unit that outputs the video data in response to a data request for the released video data.

[13]第1の表示装置を備えた画像処理装置における画像処理方法であって、1以上のサーバ装置から1以上の画像を前記画像処理装置が取得するステップと、前記取得した画像から、静止画を含む第1のシーンと前記静止画に基づく動画を含む第2のシーンとを有する映像データを前記画像処理装置が生成するステップと、前記映像データを前記第1の表示装置に出力する処理と、前記画像処理装置で生成された前記映像データの再生指示及び前記映像データの存在場所を前記画像処理装置から第2の表示装置に前記ネットワークを介して送信したのち前記第2の表示装置からの要求に応じて前記映像データを前記ネットワークを介して前記画像処理装置から前記第2の表示装置に送信する処理と、のうちの何れか一方の処理を当該画像処理装置が実行するステップとを備える画像処理方法。   [13] An image processing method in an image processing apparatus provided with a first display device, wherein the image processing apparatus acquires one or more images from one or more server devices, and a static image is acquired from the acquired images. Generating image data having a first scene including an image and a second scene including a moving image based on the still image, and processing for outputting the image data to the first display device And an instruction to reproduce the video data generated by the image processing device and the location where the video data exists are transmitted from the image processing device to the second display device via the network, and then from the second display device. A process of transmitting the video data from the image processing apparatus to the second display apparatus via the network in response to the request of the image. An image processing method comprising the steps of management apparatus executes.

さらに、本願の原出願における特許査定時の特許請求の範囲に記載された発明を以下に付記する。   Further, the invention described in the scope of claims at the time of the patent assessment in the original application of the present application will be added below.

[1]ネットワークを介して、1以上のサーバ装置から1以上の静止画を取得する取得手段と、前記取得した静止画に基づいて動画を含む映像データを生成する生成手段と、前記生成手段で生成された前記映像データの存在場所を、表示装置に前記ネットワークを介して送信する第1の送信手段と、前記表示装置からの要求に応じて、前記映像データを、画像処理装置本体から前記表示装置に前記ネットワークを介して送信する第2の送信手段とを備える画像処理装置。   [1] An acquisition unit that acquires one or more still images from one or more server devices via a network, a generation unit that generates video data including a moving image based on the acquired still images, and the generation unit First transmission means for transmitting the location of the generated video data to a display device via the network, and in response to a request from the display device, the video data is displayed from the main body of the image processing device. An image processing apparatus comprising: a second transmission unit configured to transmit to the apparatus via the network.

[2]前記映像データは、静止画を含む第1のシーンと前記静止画に基づく動画を含む第2のシーンとを有する前記[1]記載の画像処理装置。   [2] The image processing device according to [1], wherein the video data includes a first scene including a still image and a second scene including a moving image based on the still image.

[3]前記映像データは、静止画を含む第1のシーンと前記静止画中の少なくとも一部の動きを含む動画を備えた第2のシーンとを有する前記[1]記載の画像処理装置。   [3] The image processing device according to [1], wherein the video data includes a first scene including a still image and a second scene including a moving image including at least a part of motion in the still image.

[4]前記映像データは、静止画を含む第1のシーンと前記静止画上に重ね合わされた少なくとも一つの動く部分を含む動画を備えた第2のシーンとを有する前記[1]記載の画像処理装置。   [4] The image according to [1], wherein the video data includes a first scene including a still image and a second scene including a moving image including at least one moving part superimposed on the still image. Processing equipment.

[5]前記映像データのシーンの順序を関連付けた、前記取得した静止画についてのインデックス情報を生成するインデクシング手段を更に備える前記[1]記載の画像処理装置。   [5] The image processing apparatus according to [1], further including an indexing unit that generates index information about the acquired still image associated with a scene order of the video data.

[6]画像の構成要素となる複数の種類の画像要素にそれぞれ対応した複数の選択肢を出力する手段と、前記出力された複数の選択肢の中からの選択操作により任意の画像要素を指定する手段と、をさらに備え、前記生成手段は、前記指定された画像要素にフォーカスした映像データを、前記取得手段により取得された静止画から生成する前記[1]記載の画像処理装置。   [6] Means for outputting a plurality of options respectively corresponding to a plurality of types of image elements which are constituent elements of an image, and means for designating an arbitrary image element by a selection operation from the plurality of output options The image processing apparatus according to [1], wherein the generation unit generates video data focused on the designated image element from the still image acquired by the acquisition unit.

[7]前記サーバ装置から少なくとも一つの静止画を選択する選択手段を更に備え、前記取得手段は、前記選択された少なくとも一つの静止画を取得する前記[1]記載の画像処理装置。   [7] The image processing device according to [1], further including selection means for selecting at least one still image from the server device, wherein the acquisition means acquires the selected at least one still image.

[8]前記サーバ装置からの選択対象となる静止画についての情報を表示し、当該表示した情報を選択可能とする表示手段を更に備え、前記選択手段は、選択された前記情報に基づく少なくとも一つの静止画を選択する前記[7]記載の画像処理装置。   [8] The information processing apparatus further includes display means for displaying information about the still image to be selected from the server device and enabling the displayed information to be selected. The selection means is based on at least one of the selected information. The image processing device according to [7], wherein one still image is selected.

[9]前記第1の送信手段は、前記選択手段が選択した少なくとも一つの静止画の再生指示を、前記ネットワークを介して前記表示装置に送信し、前記生成手段は、前記選択された少なくとも一つの静止画の再生指示を前記第1の送信手段が前記表示装置に送信した場合、前記映像データを生成しない前記[7]記載の画像処理装置。   [9] The first transmission unit transmits an instruction to reproduce at least one still image selected by the selection unit to the display device via the network, and the generation unit transmits the at least one selected image. The image processing device according to [7], wherein the video data is not generated when the first transmission unit transmits an instruction to reproduce one still image to the display device.

[10]前記映像データを生成する処理と、前記選択された少なくとも一つの静止画の再生指示を前記第1の送信手段が前記表示装置に送信する処理と、のうちの何れかを選択するためのボタンを含む画面を出力する出力手段を更に備える前記[9]記載の画像処理装置。   [10] To select one of a process for generating the video data and a process for the first transmission unit to transmit an instruction to reproduce the selected at least one still image to the display device. The image processing apparatus according to [9], further including output means for outputting a screen including the button.

[11]前記生成手段は、前記表示装置が表示可能な画像形式の前記映像データを生成する前記[1]記載の画像処理装置。   [11] The image processing device according to [1], wherein the generation unit generates the video data in an image format that can be displayed by the display device.

[12]前記取得手段は、前記ネットワークを介して前記画像形式についての情報を取得し、前記生成手段は、前記取得された情報に基づいた画像形式の映像データを生成する前記[11]記載の画像処理装置。   [12] The acquisition unit according to [11], wherein the acquisition unit acquires information about the image format via the network, and the generation unit generates video data of an image format based on the acquired information. Image processing device.

[13]前記取得手段は、前記ネットワーク上のサーバ装置によって公開された1以上の静止画を取得し、前記生成手段は、この取得した静止画から前記映像データを生成し、この生成された映像データを前記ネットワークを介して公開する公開手段と、前記公開された映像データに対するデータ要求に応じて当該映像データを出力する出力手段とをさらに備える前記[1]記載の画像処理装置。   [13] The acquisition unit acquires one or more still images published by the server device on the network, and the generation unit generates the video data from the acquired still images, and the generated video The image processing apparatus according to [1], further comprising: a disclosure unit that releases data via the network; and an output unit that outputs the video data in response to a data request for the released video data.

[14]ネットワークを介して、1以上のサーバ装置から1以上の静止画を取得する取得手段と、前記取得した静止画に基づいて動画を含む映像データを生成する生成手段と、前記生成手段で生成された前記映像データの存在場所を、表示装置に前記ネットワークを介して送信する第1の送信手段と、前記表示装置からの要求に応じて、前記映像データを、画像処理装置本体から前記表示装置に前記ネットワークを介して送信する第2の送信手段、としてコンピュータを機能させる画像処理プログラム。   [14] An acquisition unit that acquires one or more still images from one or more server devices via a network, a generation unit that generates video data including a moving image based on the acquired still images, and the generation unit First transmission means for transmitting the location of the generated video data to a display device via the network, and in response to a request from the display device, the video data is displayed from the main body of the image processing device. An image processing program for causing a computer to function as second transmission means for transmitting to an apparatus via the network.

[15]ネットワークを介して、1以上のサーバ装置から1以上の静止画を画像処理装置が取得するステップと、前記取得した静止画に基づいて動画を含む映像データを前記画像処理装置が生成するステップと、生成した前記映像データの存在場所を、前記画像処理装置が表示装置に前記ネットワークを介して送信するステップと、前記表示装置からの要求に応じて、前記映像データを、前記画像処理装置が前記表示装置に前記ネットワークを介して送信するステップとを備える画像処理方法。   [15] The image processing device acquires one or more still images from one or more server devices via the network, and the image processing device generates video data including a moving image based on the acquired still images. A step in which the image processing device transmits the location of the generated video data to the display device via the network; and the video data is sent to the image processing device in response to a request from the display device. Transmitting to the display device via the network.

100…コンピュータ、101…CPU、102…ノースブリッジ、103…主メモリ、104…GPU、105…LCD、106…サウスブリッジ、107…サウンドコントローラ、108…スピーカ、109…BIOS−ROM、110…HDD、111…LANコントローラ、112…ODD、113…ビデオプロセッサ、114…無線LANコントローラ、115…EC/KBC、116…キーボード、117…ポインティングデバイス、150…メディアコントロールプログラム、151…指示部、152…画像選択部、153…選択画面生成部、161…UPnP API、162…HTTPサーバAPI、170…通信制御部、180…映像生成エンジン、200…ネットワーク、300…記憶装置、400…表示装置。   DESCRIPTION OF SYMBOLS 100 ... Computer, 101 ... CPU, 102 ... North bridge, 103 ... Main memory, 104 ... GPU, 105 ... LCD, 106 ... South bridge, 107 ... Sound controller, 108 ... Speaker, 109 ... BIOS-ROM, 110 ... HDD, 111 ... LAN controller, 112 ... ODD, 113 ... video processor, 114 ... wireless LAN controller, 115 ... EC / KBC, 116 ... keyboard, 117 ... pointing device, 150 ... media control program, 151 ... instruction unit, 152 ... image selection Reference numeral 153... Selection screen generation unit 161 161 UPnP API 162 HTTP server API 170 Communication control unit 180 Video generation engine 200 Network 300 Storage device 400 Display device

Claims (21)

ネットワークを介して、1以上の外部機器から1以上の静止画を取得する取得手段と、
前記取得した静止画と、当該静止画の構成要素となる1以上の画像要素の内容を特定するための情報を含むインデックス情報とに基づいて、前記静止画の画面内における前記画像要素の少なくとも一部を含む動画を有する映像データを生成する生成手段と、
前記生成手段で生成された前記映像データの存在場所を、表示装置に前記ネットワークを介して送信する第1の送信手段と、
前記表示装置からの前記映像データの存在場所を指定したデータ取得要求に応じて、前記映像データを、前記表示装置に前記ネットワークを介して送信する第2の送信手段と
を備える画像処理装置。
Obtaining means for obtaining one or more still images from one or more external devices via a network;
Based on the acquired still image and index information including information for specifying the contents of one or more image elements that are constituent elements of the still image , at least one of the image elements in the screen of the still image. Generating means for generating video data having a moving image including a section;
First transmitting means for transmitting the location of the video data generated by the generating means to a display device via the network;
An image processing apparatus comprising: a second transmission unit configured to transmit the video data to the display device via the network in response to a data acquisition request specifying the location of the video data from the display device.
前記取得した静止画から、前記画像要素毎に予め決められた特徴を有する画像領域を、検出することによって、前記1以上の画像要素に関する情報を含む前記インデックス情報を生成するインデクシング手段をさらに備える
請求項1記載の画像処理装置。
And further comprising indexing means for generating the index information including information relating to the one or more image elements by detecting an image region having characteristics predetermined for each of the image elements from the acquired still image. Item 6. The image processing apparatus according to Item 1.
前記生成手段は、生成する前記映像データとして、前記取得した静止画からそれぞれ抽出された複数の部分的な画像が同時に表示されるタイミングがある映像データを生成する
請求項1記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the generation unit generates video data having a timing at which a plurality of partial images respectively extracted from the acquired still images are simultaneously displayed as the video data to be generated.
前記1以上の画像要素に対応した1以上の選択肢を前記表示装置に出力する手段と、
前記表示装置に出力された1以上の選択肢の中からの選択操作により任意の画像要素を指定する手段と、
をさらに備え、
前記生成手段は、前記指定された画像要素にフォーカスした映像データを、前記取得手段により取得された前記静止画と前記インデックス情報とに基づいて生成する
請求項1記載の画像処理装置。
Means for outputting one or more options corresponding to the one or more image elements to the display device ;
Means for designating an arbitrary image element by a selection operation from one or more options output to the display device ;
Further comprising
The image processing apparatus according to claim 1, wherein the generation unit generates video data focused on the designated image element based on the still image acquired by the acquisition unit and the index information.
前記映像データは、ハイライト表示される画像領域を含む
請求項1記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the video data includes an image area to be highlighted.
前記映像データは、一部が拡大表示されて行く動画を含む
請求項1記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the video data includes a moving image that is partially enlarged.
前記映像データは、モーフィング映像を含む
請求項1記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the video data includes a morphed video.
前記映像データは、前記静止画を含む第1のシーンと前記静止画に基づく動画を含む第2のシーンとを有する
請求項1記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the video data includes a first scene including the still image and a second scene including a moving image based on the still image.
前記映像データは、前記静止画を含む第1のシーンと前記静止画中の少なくとも一部の動きを含む動画を備えた第2のシーンとを有する
請求項1記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the video data includes a first scene including the still image and a second scene including a moving image including at least a part of movement in the still image.
前記映像データは、前記静止画を含む第1のシーンと前記静止画上に重ね合わされた少なくとも一つの動く部分を含む動画を備えた第2のシーンとを有する
請求項1記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the video data includes a first scene including the still image and a second scene including a moving image including at least one moving part superimposed on the still image.
前記インデックス情報は、前記映像データのシーンの順序が関連付けされている
請求項1記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the index information is associated with a scene order of the video data.
前記取得手段は、複数のサーバ装置から複数の静止画を取得し、
前記複数のサーバ装置から取得した複数の静止画を表示すると共に画像選択操作を受け付けるための、前記表示装置に表示させる画像選択画面を生成する画像選択画面生成部をさらに備え、
前記生成手段は、前記取得した複数の静止画の中から前記画像選択操作によって選択された静止画と前記インデックス情報とに基づいて、前記選択された静止画を含む第1のシーンと前記選択された静止画から生成された動画を含む第2のシーンとを有する前記映像データを生成する
請求項1記載の画像処理装置。
The acquisition means acquires a plurality of still images from a plurality of server devices,
An image selection screen generating unit for generating an image selection screen to be displayed on the display device for displaying a plurality of still images acquired from the plurality of server devices and receiving an image selection operation;
The generation means selects the first scene including the selected still image and the selected scene based on the still image selected from the plurality of acquired still images by the image selection operation and the index information. The image processing apparatus according to claim 1, further comprising: a second scene including a moving image generated from the still image.
サーバ装置に記憶された静止画の中から、少なくとも一つの静止画を選択する選択手段を更に備え、
前記取得手段は、前記選択された少なくとも一つの静止画を取得する
請求項1記載の画像処理装置。
A selection means for selecting at least one still image from among the still images stored in the server device;
The image processing apparatus according to claim 1, wherein the acquisition unit acquires the selected at least one still image.
前記サーバ装置からの選択対象となる静止画についての情報を表示し、当該表示した情報を選択可能とする表示手段を更に備え、
前記選択手段は、選択された前記情報に基づく少なくとも一つの静止画を選択する
請求項13記載の画像処理装置。
Further comprising display means for displaying information about a still image to be selected from the server device and enabling the displayed information to be selected;
The image processing apparatus according to claim 13, wherein the selection unit selects at least one still image based on the selected information.
前記第1の送信手段は、前記選択手段が選択した少なくとも一つの静止画の再生指示を、前記ネットワークを介して前記表示装置に送信し、
前記生成手段は、前記選択された少なくとも一つの静止画の再生指示を前記第1の送信手段が前記表示装置に送信した場合、前記映像データを生成しない
請求項13記載の画像処理装置。
The first transmission unit transmits an instruction to reproduce at least one still image selected by the selection unit to the display device via the network;
The image processing apparatus according to claim 13, wherein the generation unit does not generate the video data when the first transmission unit transmits an instruction to reproduce the selected at least one still image to the display device.
前記映像データを生成する処理と、前記選択された少なくとも一つの静止画の再生指示を前記第1の送信手段が前記表示装置に送信する処理と、のうちの何れかを選択するためのボタンを含む画面を出力する出力手段を更に備える
請求項15記載の画像処理装置。
A button for selecting one of a process for generating the video data and a process for the first transmission means to transmit an instruction to reproduce the selected at least one still image to the display device; The image processing apparatus according to claim 15, further comprising output means for outputting a screen including the image.
前記生成手段は、前記表示装置が表示可能な画像形式の前記映像データを生成する請求項1記載の画像処理装置。   The image processing device according to claim 1, wherein the generation unit generates the video data in an image format that can be displayed by the display device. 前記取得手段は、前記ネットワークを介して前記画像形式についての情報を取得し、
前記生成手段は、前記取得された情報に基づいた画像形式の映像データを生成する請求項17記載の画像処理装置。
The acquisition means acquires information about the image format via the network,
The image processing apparatus according to claim 17, wherein the generation unit generates video data in an image format based on the acquired information.
前記取得手段は、前記ネットワーク上の外部機器によって、少なくとも前記ネットワーク上での存在場所が公開された1以上の静止画を取得し、
前記生成手段は、この取得した静止画から前記映像データを生成し、
この生成された映像データにおける少なくとも前記ネットワーク上での存在場所を、前記ネットワークを介して公開する公開手段と、
前記映像データの前記ネットワーク上での存在場所を指定したデータ出力要求に応じて当該映像データを出力する出力手段と
をさらに備える請求項1記載の画像処理装置。
The acquisition means acquires at least one still image whose location on the network is disclosed by an external device on the network,
The generation means generates the video data from the acquired still image,
Publishing means for publishing at least the location of the generated video data on the network via the network;
The image processing apparatus according to claim 1, further comprising an output unit that outputs the video data in response to a data output request designating a location of the video data on the network .
ネットワークを介して、1以上の外部機器から1以上の静止画を取得する取得手段と、
前記取得した静止画と、当該静止画の構成要素となる1以上の画像要素の内容を特定するための情報を含むインデックス情報とに基づいて、前記静止画の画面内における前記画像要素少なくとも一部を含む動画を有する映像データを生成する生成手段と、
前記生成手段で生成された前記映像データの存在場所を、表示装置に前記ネットワークを介して送信する第1の送信手段と、
前記表示装置からの前記映像データの存在場所を指定したデータ取得要求に応じて、前記映像データを、前記表示装置に前記ネットワークを介して送信する第2の送信手段、
としてコンピュータを機能させる画像処理プログラム。
Obtaining means for obtaining one or more still images from one or more external devices via a network;
Based on the acquired still image and index information including information for specifying the contents of one or more image elements that are constituent elements of the still image, at least a part of the image element in the screen of the still image Generating means for generating video data having a moving image including:
First transmitting means for transmitting the location of the video data generated by the generating means to a display device via the network;
Second transmission means for transmitting the video data to the display device via the network in response to a data acquisition request specifying the location of the video data from the display device;
An image processing program that causes a computer to function.
ネットワークを介して、1以上の外部機器から1以上の静止画を画像処理装置が取得するステップと、
前記取得した静止画と、当該静止画の構成要素となる1以上の画像要素の内容を特定するための情報を含むインデックス情報とに基づいて、前記静止画の画面内における前記画像要素の少なくとも一部を含む動画を有する映像データを生成するステップと、
生成した前記映像データの存在場所を、前記画像処理装置が表示装置に前記ネットワークを介して送信するステップと、
前記表示装置からの前記映像データの存在場所を指定したデータ取得要求に応じて、前記映像データを、前記画像処理装置が前記表示装置に前記ネットワークを介して送信するステップと
を備える画像処理方法。
An image processing device acquiring one or more still images from one or more external devices via a network;
Based on the acquired still image and index information including information for specifying the contents of one or more image elements that are constituent elements of the still image , at least one of the image elements in the screen of the still image. Generating video data having a moving image including a portion;
The image processing device transmitting the generated location of the video data to the display device via the network; and
An image processing method comprising: the image processing device transmitting the video data to the display device via the network in response to a data acquisition request specifying the location of the video data from the display device.
JP2013108020A 2013-05-22 2013-05-22 Image processing apparatus, image processing program, and image processing method Active JP5619214B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013108020A JP5619214B2 (en) 2013-05-22 2013-05-22 Image processing apparatus, image processing program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013108020A JP5619214B2 (en) 2013-05-22 2013-05-22 Image processing apparatus, image processing program, and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011194783A Division JP5289527B2 (en) 2011-09-07 2011-09-07 Image processing apparatus, image processing program, and image processing method

Publications (2)

Publication Number Publication Date
JP2013232904A JP2013232904A (en) 2013-11-14
JP5619214B2 true JP5619214B2 (en) 2014-11-05

Family

ID=49678943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013108020A Active JP5619214B2 (en) 2013-05-22 2013-05-22 Image processing apparatus, image processing program, and image processing method

Country Status (1)

Country Link
JP (1) JP5619214B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104270678B (en) * 2014-09-05 2018-05-08 广州金山网络科技有限公司 A kind of humbnail display methods, device and system
JP6489027B2 (en) * 2016-01-14 2019-03-27 ヤマハ株式会社 Information processing apparatus and image data display method
CN113542847B (en) 2020-04-21 2023-05-02 抖音视界有限公司 Image display method, device, equipment and storage medium

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004208210A (en) * 2002-12-26 2004-07-22 Megachips System Solutions Inc Image editing system
JP2005045757A (en) * 2003-07-04 2005-02-17 Field System Inc Moving image generation/distribution system
JP2005303908A (en) * 2004-04-15 2005-10-27 Fuji Photo Film Co Ltd Image editing apparatus, method, and program
JP2006229467A (en) * 2005-02-16 2006-08-31 Fuji Photo Film Co Ltd Photo movie creating apparatus, photo movie creating program, and object recognition method
JP4926416B2 (en) * 2005-06-15 2012-05-09 キヤノン株式会社 Image display method, program, recording medium, and image display apparatus
JP4388939B2 (en) * 2006-09-25 2009-12-24 富士フイルム株式会社 Image reproducing apparatus, control method therefor, and control program therefor
JP4272226B2 (en) * 2006-10-18 2009-06-03 日本電信電話株式会社 Image fluid system interaction expression apparatus, method, and program thereof
JP5282447B2 (en) * 2008-05-29 2013-09-04 ソニー株式会社 Information processing apparatus, information processing method, program, and information processing system

Also Published As

Publication number Publication date
JP2013232904A (en) 2013-11-14

Similar Documents

Publication Publication Date Title
EP2843919B1 (en) Method and apparatus for providing service by using screen mirroring
GB2590545A (en) Video photographing method and apparatus, electronic device and computer readable storage medium
JP2021516911A (en) Video generation methods, devices, electronics and computer readable storage media
US20180160194A1 (en) Methods, systems, and media for enhancing two-dimensional video content items with spherical video content
JP4829357B2 (en) Image processing apparatus and image processing method
JP5870742B2 (en) Information processing apparatus, system, and information processing method
JP2007281680A (en) Image processor and image display method
TWI522823B (en) Techniques for intelligent media show across multiple devices
US9558784B1 (en) Intelligent video navigation techniques
JP2009105724A (en) Image data server
US9564177B1 (en) Intelligent video navigation techniques
WO2006011399A1 (en) Information processing device and method, recording medium, and program
CN101320384A (en) Equipment room operation interface, equipment control terminal and program
JP6149862B2 (en) Display control device, display control system, and display control method
JP2013542649A (en) Virtual video capture device
JP5619214B2 (en) Image processing apparatus, image processing program, and image processing method
JP2013171599A (en) Display control device and display control method
JP5289527B2 (en) Image processing apparatus, image processing program, and image processing method
CN112235603A (en) Video distribution system, method, computing device and user equipment
JP6344379B2 (en) Information processing apparatus and information processing method
CN116017082A (en) Information processing method and electronic equipment
JP5550446B2 (en) Electronic apparatus and moving image generation method
CN111367598B (en) Method and device for processing action instruction, electronic equipment and computer readable storage medium
JP5923495B2 (en) Playback device
JPWO2012005309A1 (en) Content distribution system, content distribution apparatus, and content operation program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140916

R151 Written notification of patent or utility model registration

Ref document number: 5619214

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313121

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350