WO2009145257A1 - コンテンツ自動再生方法、コンテンツ自動再生プログラム、コンテンツ自動再生システム、およびコンテンツ自動再生サーバ - Google Patents

コンテンツ自動再生方法、コンテンツ自動再生プログラム、コンテンツ自動再生システム、およびコンテンツ自動再生サーバ Download PDF

Info

Publication number
WO2009145257A1
WO2009145257A1 PCT/JP2009/059773 JP2009059773W WO2009145257A1 WO 2009145257 A1 WO2009145257 A1 WO 2009145257A1 JP 2009059773 W JP2009059773 W JP 2009059773W WO 2009145257 A1 WO2009145257 A1 WO 2009145257A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
feature point
scenario
information
user information
Prior art date
Application number
PCT/JP2009/059773
Other languages
English (en)
French (fr)
Inventor
俊彦 山上
弘之 早川
Original Assignee
株式会社Access
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Access filed Critical 株式会社Access
Publication of WO2009145257A1 publication Critical patent/WO2009145257A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums

Definitions

  • the present invention relates to a content automatic reproduction method, a content automatic reproduction program, a content automatic reproduction system, and a content automatic reproduction server that update a feature point evaluation of content to an appropriate value according to a reproduction state.
  • video content a moving image file, a still image file, a video digital content, and the like are referred to as “video content”.
  • content includes not only video content but also data composed of a markup document, audio data, document data, a worksheet, or a combination thereof.
  • a large amount of video content stored in such a large-capacity storage device includes many similar contents. Therefore, viewing all video content is tedious and time consuming. Therefore, a plurality of video contents are edited and integrated by using an authoring tool or the like and combined into one video content (hereinafter referred to as “integrated video content”). Examples of apparatuses that edit a plurality of video contents to create integrated video contents are disclosed in Japanese Patent Laid-Open No. 2005-303840 (hereinafter referred to as “Patent Document 1”) and Japanese Patent Laid-Open No. 2000-125253 (hereinafter referred to as “ Patent Document 2 ”)) and the like.
  • the moving image editing apparatus described in Patent Document 1 has a moving image storage unit in which a plurality of moving images are stored.
  • the editing device searches for a moving image from the moving image storage unit according to the search condition input by the user, and displays the search result as a list.
  • the user selects a desired moving image from the displayed list, and completes one video by arranging the selected moving images in time series.
  • a user can create a desired video by selecting and arranging moving images, but there is a problem that the video creation work becomes complicated.
  • the moving image editing apparatus described in Patent Document 2 extracts a portion (cutout range) including a scene specified by the user from all moving image materials, and creates a composite list in which the extracted cutout ranges are listed. Then, the cutout range corresponding to the designated scene is continuously reproduced according to the created synthesis list.
  • a series of operations from selection of a moving image to creation of a list and editing and reproduction are automatically performed on the apparatus side. Therefore, unlike Patent Document 1, there is no complication of the video creation work. On the other hand, since the video creation work is automated, the selection criteria for moving images depend on the program design of the apparatus.
  • the present invention has been made in view of the above circumstances, and the object of the present invention is to suitably realize both the automation of video creation work and the creation of integrated video content suitable for the user's instruction content.
  • the content automatic reproduction method, the content automatic reproduction program, the content automatic reproduction system, and the content automatic reproduction server are provided.
  • a content automatic reproduction method that solves the above-described problem is a feature that is suitable for an instruction from among a plurality of contents evaluated for at least one feature point when an instruction to reproduce the content is given.
  • the content that the user wants to reproduce is automatically selected and reproduced from among a large number of content.
  • the content automatic reproduction method further includes a content storage step for storing content, and a content evaluation step for evaluating the stored content for at least one feature point based on the feature point definition that defines the feature point. It is good.
  • the content automatic reproduction method includes a user information collection step for collecting user information about the user, and a second feature point evaluation for updating the feature point evaluation of the content based on the collected user information.
  • An updating step may be further included.
  • the method may further include a user information generation step of generating new user information by analyzing the collected user information. In this case, preferably, content is selected in consideration of user information in the content selection step.
  • the content automatic reproduction method according to the present invention may further include a user information update step of updating user information based on the content reproduction history.
  • the content automatic reproduction method includes a user information classification step for classifying user information for each user, and information that represents the user characteristics of the user information or the classified information for each user.
  • the method may further include an information transmission step of transmitting to a predetermined server.
  • a scenario selection step of selecting a scenario having a feature point evaluation suitable for the instruction from among a plurality of scenarios associated with the at least one feature point evaluation when content reproduction is instructed is further included. It is good also as a method.
  • content selection step content is selected based on the selected scenario.
  • the content selection step selects the content of each scene based on the feature point evaluation of each scene of the selected scenario, In the content reproduction step, the content selected for each scene may be reproduced in the order determined by the scenario.
  • the content automatic reproduction method using such a scenario may further include a scenario editing step for editing the scenario based on the reproduction history.
  • it may further include a scenario editing step for editing the scenario based on the user information.
  • the reproduction history includes information representing how the scene has been reproduced, such as normal reproduction, skip, repeat reproduction, and high-speed reproduction. For example, it is possible to support more suitable scenario editing processing by weighting feature points so that scenes that are skipped or played back at high speed are difficult to play, and scenes that are played back repeatedly are easily played back. . It is also possible to analyze user preferences and the like based on the reproduction history, and to support more suitable scenario editing processing using the analysis result.
  • a content automatic reproduction program that solves the above problems is a program for causing a computer to execute each step of the content automatic reproduction method described above.
  • an automatic content reproduction system that solves the above-described problem is characterized by content storage means for storing a plurality of contents evaluated for at least one feature point, and feature point evaluation among the plurality of contents.
  • a content selection unit that selects content based on the content, a content reproduction unit that reproduces the selected content, and a feature point evaluation update unit that updates the feature point evaluation of the content based on the content reproduction history.
  • Such a content automatic reproduction system may further include a content evaluation unit that evaluates the content for at least one feature point when the content is stored in the content storage unit.
  • the content automatic reproduction system may further include a user information collecting unit that collects user information about the user.
  • the feature point evaluation update unit updates the feature point evaluation of the content also using the collected user information.
  • the content automatic reproduction system may further include a user information generating unit that analyzes the collected user information and generates new user information. The content selection means preferably selects content in consideration of user information.
  • the content automatic playback system may further include a user information update unit that updates user information based on the content playback history.
  • the content automatic reproduction system includes a user information classification unit that classifies user information for each user, and a predetermined server as user information or classified information for each user as information that expresses user characteristics. It is good also as a structure which further has an information transmission means to transmit to.
  • the content automatic reproduction system further includes an operation unit that accepts a user operation, a scenario storage unit that stores a plurality of scenarios associated with at least one feature point evaluation, and a reproduction content of the content is instructed by the operation unit.
  • a scenario selection unit that selects a scenario having a feature point evaluation suitable for the instruction from a plurality of scenarios may be used. In this case, the content selection means selects content based on the selected scenario.
  • the content selection unit selects the content of each scene based on the feature point evaluation of each scene of the selected scenario, and the content The playback means may be configured to play back the content selected for each scene in the order determined by the scenario.
  • the content automatic playback system may further include scenario editing means for editing a scenario based on the playback history. Or it is good also as a structure which further has a scenario edit means to edit a scenario based on user information.
  • an automatic content reproduction server that solves the above-described problem is characterized by content storage means for storing a plurality of contents evaluated for at least one feature point, and feature point evaluation among the plurality of contents.
  • Content selection means for selecting content based on the content reproduction means for reproducing the selected content
  • feature point evaluation update means for updating the feature point evaluation of the content based on the content reproduction history .
  • FIG. 1 is a network configuration diagram for explaining the present embodiment. As shown in FIG. 1, the network according to the present embodiment is constructed by a home LAN (Local Area Network) 1 and an external network 2.
  • LAN Local Area Network
  • a gateway server 10 and a plurality of information devices are arranged in the home LAN 1, a gateway server 10 and a plurality of information devices (HDD recorder 21, TV (Television) 22, notebook PC 23, home server 100, etc.) are arranged.
  • the gateway server 10 has switching and routing functions, interconnects information devices in the home LAN 1, and communicates with terminals arranged on the external network 2 or other networks not shown. can do.
  • the home LAN 1 is also connected to information devices other than the HDD recorder 21, TV 22, and notebook PC 23.
  • Information home appliances such as a microwave oven and a refrigerator are also connected.
  • information home appliances are also referred to as information devices for convenience.
  • All information devices connected to the home LAN 1 are installed with middleware and client software compliant with common technical specifications related to the home network, and have a configuration suitable for home LAN connection.
  • each information device complies with DLNA (Digital Living Network Alliance) which is a common technical specification
  • the HDD recorder 21 is a DMS (Digital Media Server)
  • the TV 22 is a DMP (Digital Media Player).
  • the notebook PC 23 functions as a DMS and a DMP, respectively.
  • the home server 100 is a desktop PC, and functions as a DMS and a DMP like the notebook PC 23.
  • the home LAN may be configured by information equipment that conforms to other technical specifications such as Havi (Home Audio / Video Interoperability), Jini, and the like.
  • the home server 100 can collect and store contents stored in each information device in the home LAN 1 including the HDD recorder 21.
  • content stored in an information device (for example, mobile phone 24) arranged on the external network 2 can be acquired and stored via the external network 2 and the gateway server 10. Accumulation of content in the home server 100 is performed according to settings of the home server 100 and each information device, user operation, or the like.
  • FIG. 2 is a block diagram showing the configuration of the home server 100.
  • Each element constituting the home server 100 is mutually connected to the CPU 120 via the system bus 110. After powering on the home server 100, the CPU 120 accesses necessary hardware via the system bus 110.
  • a CPU 120 accesses a ROM (Read-Only Memory) 130.
  • the CPU 120 loads a boot loader stored in the ROM 130 into a RAM (Random Access Memory) 140 and starts it.
  • the CPU 120 that activated the boot loader then loads an OS (Operating System) stored in the HDD 150 into the RAM 140 and activates it.
  • OS Operating System
  • each element performs various processes by cooperating as necessary under resource and process management by the OS.
  • various resident programs stored in the HDD 150 are resident in the RAM 140.
  • Such resident programs include a content collection program 151, an integrated video content creation program 152, a feature point learning program 153, a scenario learning program 154, a family profile learning program 155, and the like according to the features of the present invention. Hereinafter, these resident programs will be described.
  • FIG. 3 is a flowchart showing content collection processing executed by the content collection program 151.
  • the content collection program 151 sends a request message requesting video content (for example, MPEG-2 (Moving Picture Experts ⁇ Group phase 2) format) to the network interface 160 when it resides in the RAM 140, for example.
  • a request message for example, MPEG-2 (Moving Picture Experts ⁇ Group phase 2) format
  • the network interface 160 When it resides in the RAM 140, for example.
  • step 1 the same segment, that is, each DMS in the home LAN 1 individually (or by multicast) is transmitted (step 1.
  • S the step is abbreviated as “S” in this specification and the drawings).
  • the information device that has received the request message refers to its own content list and the like to check whether the video content has been updated or added since the previous request message was received. If there is an updated or added video content, the video content is uploaded to the home server 100.
  • the content collection program 151 stores the video content received from each terminal in the content database 156 in the HDD 150, and simultaneously analyzes the video content to evaluate various feature points (S2, S3).
  • the feature points are, for example, “grandma” (subject person), “two people” (subject number), “laughter” (subject facial expression), “eating” (subject motion), “yukata” (subject) ), “Outdoor” (shooting location), “Evening” (shooting time), “Weekend” (shooting date and time), “Looking down” (position and angle relationship between subject and photographer), “Birthday” (family) This is an element characterizing video content such as “Zoom in” (shooting pattern).
  • the feature points include not only the characteristics of video and audio recorded in the video content, but also information such as the photographer of the video content and the shooting date and time.
  • feature points of images and sounds in video content are extracted and digitized by a known recognition algorithm such as motion recognition, facial expression recognition, object recognition, and speech recognition. Information regarding various feature points of each video content digitized in this way is called a video feature parameter.
  • a family profile (to be described later) stored in the family profile database 159 is referred to, and a subject (for example, “younger brother”) or a photographer (for example, “father” voice) Is identified.
  • the shooting date and time and the photographer can also be acquired from the time stamp and properties of the video content file.
  • the family profile it is possible to estimate the age of the subject at the time of photographing (that is, the photographing time of the video content) from the height and the face of the subject.
  • the content collection program 151 generates a list of video feature parameters (hereinafter referred to as “meta information”), which is a result of analyzing the video content for each feature point in this way (S4). Specifically, using a predetermined function corresponding to each feature point, a video feature parameter indicating evaluation of video content related to the feature point is calculated.
  • FIG. 4 shows an example of meta information generated by the process of S4. As shown in FIG. 4, the meta information is composed of video feature parameter groups corresponding to feature points such as “father”, “mother”, “sister”, “brother”, and so on. In the present embodiment, various video feature parameters are expressed by numerical values of 0 to 1, for example.
  • the meta information in FIG. 4 indicates that the video content is an audioless video having, for example, an older sister and a younger brother as main subjects and includes many zoomed-in scenes.
  • the generated meta information is stored in the meta information database 157 in the HDD 150 (S5).
  • the video content held by each information device in the same segment is automatically collected by the content collection program 151, and feature point analysis is performed by the content collection program 151 to generate meta information.
  • video content held by information devices in other segments (for example, the mobile phone 24) is not automatically collected.
  • Video contents held by information devices in other segments are uploaded and stored in the home server 100 only when the information devices are manually operated.
  • the home server 100 and each information device may be set and changed so that the video content held by the information device in the same segment is uploaded and stored in the home server 100 only when a manual operation is performed.
  • FIG. 5 is a flowchart showing integrated video content creation processing executed by the integrated video content creation program 152.
  • the integrated video content creation program 152 creates integrated video content based on the scenario.
  • FIGS. 6A and 6B show examples of scenarios (scenarios 1581 and 1582) stored in the scenario database 158 in the HDD 150, respectively.
  • Each scenario is composed of one or more scene definitions S.
  • the scene definition S includes a plurality of types of scene feature parameters that define scene features (video feature parameters required for video content to be assigned to the scene), allocation time parameters for each scene, and the like.
  • the scene feature parameter is expressed by a value of 0 to 1 like the video feature parameter. For example, the scene definition S defining the scene 1 in the scenario 1581 in FIG.
  • a scenario feature parameter similar to the scene feature parameter is also associated with the scenario itself.
  • the scenario feature parameter is calculated based on, for example, scene feature parameters of each scene definition constituting the scenario. Alternatively, it may be a parameter expressing the flow of the entire scenario given independently of the scene feature parameter of each scene definition.
  • Each scenario and scene definition is stored in advance in the scenario database 158 as a template, for example. Scenarios and scene definitions can be created independently by the user using a dedicated editor, for example, but those distributed by video equipment manufacturers etc. can be downloaded from a server on the Internet, for example. .
  • the user operates a client such as the TV 22 or the notebook PC 23 connected to the home LAN 1 and inputs the theme of the video content to be viewed, the characters, the total playback time, and the like.
  • the information input at this time is transmitted to the home server 100.
  • the CPU 120 starts execution of the integrated video content creation program 152.
  • the input information is referred to as “content creation instruction information”.
  • the integrated video content creation program 152 first accesses the scenario database 158, refers to each scenario, and selects a scenario suitable for the content creation instruction information (S11).
  • a scenario suitable for the content creation instruction information is “sister” or “birthday”, for example, a scenario (scenario 1581 in this case) where the scenario feature parameters of “sister” and “birthday” are both greater than or equal to a predetermined value (eg, 0.6). ) Is selected.
  • the integrated video content creation program 152 subsequently accesses the meta information database 157 and searches for meta information suitable for each scene of the selected scenario (S12). For example, for the scene 1 of the scenario 1581, the meta information of the video content captured in 2002 when the video feature parameters of “sister” and “birthday” are equal to or larger than a predetermined value is searched.
  • the integrated video content creation program 152 accesses the content database 156 and reads the video content corresponding to the searched meta information for each scene of the selected scenario (S13). For each scene, for example, video content corresponding to the meta information having the highest search order is read.
  • the search order of meta information is determined according to the degree of coincidence between the scene definition S (specifically, the scene feature parameter) and the meta information.
  • the integrated video content creation program 152 clips and arranges the read video content for each scene, and generates a scene video (S14).
  • corresponding scene videos are generated for each of the scenes 1 to 20 of the scenario 1581.
  • a video for 25 seconds in video content shot on the sister's birthday in 2002 is clipped as a scene video.
  • the starting point of clipping on the time axis of the video content is set at random, for example. Also, since video with a long shooting time tends to be redundant in the latter half, the video in the first half is clipped with priority.
  • the integrated video content creation program 152 creates a series of video content, that is, an integrated video content by arranging the generated scene videos in order of scenes 1 to 20 and connecting adjacent scene videos (S15). A visual effect may be enhanced by using a switching effect or the like for connection between scene images.
  • the created integrated video content is transmitted to the client (that is, the transmission source of the content creation instruction information).
  • the client decodes and reproduces the received integrated video content using a video codec. Note that the user can arbitrarily save the created integrated video content in the HDD 150.
  • the integrated video content creation program 152 when executed, the integrated video content is automatically created, so there is no complexity in the video creation work, but the video content is feature point evaluation (meta information) and scenario selection.
  • the video content is feature point evaluation (meta information) and scenario selection.
  • the user can edit, for example, each scenario in the scenario database 158 so that the integrated video content is created as intended.
  • considerable trial and error is required to improve the content of the integrated video content by such scenario editing work. That is, the solution of the above problem by scenario editing work is not effective because the editing work is complicated and difficult.
  • the home server 100 includes a feature point learning program 153, a scenario learning program 154, a family profile learning program 155, etc. in order to improve the content of the integrated video content while eliminating the complexity of the video creation work.
  • a learning program has been implemented.
  • FIG. 7 is a flowchart showing the feature point learning process executed by the feature point learning program 153. As shown in FIG. 7, the feature point learning program 153 stays in the RAM 140 and then monitors the generation of meta information by the content collection program 151 and the update of predetermined shared information of the client (S21 to S23).
  • the feature point learning program 153 detects that the meta information is generated by the content collection program 151 (S21, S22: YES)
  • the feature point learning program 153 uses, for example, an algorithm applying a TF-IDF (Term Frequency-Inverse Document Frequency) method.
  • the conversion coefficient of the function used in the process of S4 in FIG. 3, that is, the coefficient for converting the feature point of the video content into the video feature parameter group is updated (S24).
  • the tendency of the video content stored in the content database 156 is analyzed based on all the meta information stored in the meta information database 157. For example, let us consider a case where an analysis result indicating that there are many smile images is obtained.
  • the feature point learning program 153 updates the conversion coefficient so that the weight of the video feature parameter of “laughter” is lightened so that the feature of “laughter” is intentionally diluted to make other features stand out.
  • the content collection program 151 uses the updated conversion coefficient to generate meta information that more accurately represents the characteristics of the video content.
  • the integrated video content creation program 152 selects an appropriate video content according to the content creation instruction information and creates an integrated video content.
  • the feature point learning program 153 returns to the process of S21 after the conversion coefficient is updated.
  • a single video feature parameter of “laughter” is set to a plurality of video features such as “laughter”, “big laughter”, and “slow laughter”. It may be subdivided into parameters. In this case, the video content can be further distinguished and characterized according to the degree of laughter.
  • the playback history information includes information indicating, for example, which scene in the integrated video content has been operated such as playback, skip, repeat, fast forward, rewind, and stop.
  • the feature point learning program 153 periodically accesses the shared folder of each client and monitors whether or not the reproduction history information in the shared folder has been updated (S21 to S23). If the playback history information in the shared folder has been updated (S21, S22: NO, S23: YES), a weighting value described later held in the meta information database 157 is updated using the playback history information. (S25). For example, consider a case where the integrated video content created using the scenario 1581 is reproduced by the TV 22. According to the reproduction history information at this time, scenes 1 to 16 are repeated and scenes 17 to 20 are not reproduced.
  • the feature point learning program 153 has all the video feature parameters (or scene feature parameters) having a value higher than, for example, a certain level (for example, 0.6) in the meta information of the video content of the scenes 1 to 16 reproduced repeatedly. ) And the weight values (or scene feature parameters) of all video feature parameters higher than a certain level in the meta information of the video content of the scenes 17 to 20 are lowered.
  • the HDD 150 holds a list of weight values (not shown) corresponding to each feature point. When the integrated video content creation program 152 searches for meta information corresponding to each scene, the list of weight values is displayed. Referring to the meta information that matches the value obtained by adding the weighting value to the scene feature parameter included in the scene definition S of the scenario.
  • the feature point learning program 153 updates the weight value of the feature point with reference to the list of weight values when the reproduction history information is updated. Further, the correlation between the number of repeats and the video feature parameter may be calculated, and a weight value corresponding to the correlation coefficient may be given. The assigned weight value is increased or decreased, for example, linearly, exponentially, or logarithmically according to the number of repeats.
  • the integrated video content creation program 152 selects the video content that the user particularly wants to view and creates the integrated video content even when there are a plurality of similar video contents in the content database 156. Become.
  • the feature point learning program 153 returns to the process of S21 after the weighting process.
  • the feature point learning program 153 may periodically acquire the reproduction history information in the shared folder of each client as an alternative process of the monitoring process of the reproduction history information in the shared folder.
  • the meta information in the meta information database 157 is updated based on all the reproduction history information. For example, a higher weighting value is assigned to a video feature parameter of meta information of video content having a new playback date and time.
  • the integrated video content creation program 152 selects the video content suitable for the user's recent preferences and creates the integrated video content.
  • the above is an example of the update process of the video feature parameter by the feature point learning program 153, and various other update processes are assumed.
  • a video feature parameter update process using a family profile is assumed.
  • the family profile here is information about a family held by some information devices (such as the mobile phone 24) on the home LAN 1 and the external network 2.
  • video content recorded by each family member is stored in the HDD recorder 21 in association with recording categories such as “father”, “mother”, “sister”, and “brother”.
  • information such as viewing history of each family member and program reservation is also recorded.
  • browsing history of web pages, photos, music, and the like are stored in the document folder of each family member of the notebook PC 23.
  • the family profile learning program 155 collects family profiles scattered in each information device and constructs a family profile database 159 in the HDD 150. Further, the family profile in the family profile database 159 is updated based on the reproduction history information or the like, or the family profile is added. As an example, the family profile is updated or added by estimating the family preference based on the content of the reproduced scene, the reproduction frequency, and the like.
  • operator information is also input in a GUI (Graphical User Interface) for inputting content creation instruction information. Then, the operator information is associated with the reproduction history information generated when the reproduction of the integrated video content corresponding to the content creation instruction information is finished. By using the operator information associated with the reproduction history information, the reproduction history information of each family member is classified from all the reproduction history information.
  • GUI Graphic User Interface
  • the preference of each family member is estimated (for example, factor analysis described in the next paragraph) And the like, and a family profile of each family member can be updated or added.
  • the family profile learning program 155 also performs a family behavior pattern analysis based on the family profile by a data mining method or the like, and accumulates the analysis results in the family profile database 159 as a family profile.
  • a family behavior pattern analysis based on the family profile by a data mining method or the like, and accumulates the analysis results in the family profile database 159 as a family profile.
  • family characteristics can be analyzed using multivariate analysis such as factor analysis, and a new family profile can be generated.
  • multivariate analysis such as factor analysis
  • a new family profile can be generated.
  • an n-dimensional virtual space having each of n types of video feature parameters as coordinate axes is defined, and video content is distributed in the n-dimensional virtual space based on meta information.
  • the distribution of the video content in the n-dimensional virtual space is mapped to a lower-order m-dimensional virtual space (here, a three-dimensional virtual space defined with each principal component as a coordinate axis). .
  • the distribution of video content in the three-dimensional virtual space expresses the characteristics that the family potentially has.
  • the family profile expressed in such a distribution it is possible to update conversion coefficients for feature points, weight values corresponding to each feature point, and the like. It is also possible to select a scenario suitable for the family profile expressed by the distribution or download it from a server on the Internet.
  • a new family profile can be generated using a technique such as cluster analysis. For example, n types of video feature parameters are classified into two clusters: a parameter cluster that is frequently updated such as weighting according to the playback state of the video content, and a parameter cluster that is not frequently updated. Based on the classification, family characteristics are extracted to generate a family profile. For example, family features can be extracted by focusing on the former cluster.
  • the family profile stored in the family profile database 159 can be used for various processes.
  • these family profiles include, for example, the height and voice of each family member, the color and pattern of favorite clothes, favorite sports, age, and the like.
  • the reference data for recognition used in the recognition algorithm based on the family profile can be updated to improve the accuracy of recognition algorithms such as motion recognition, object recognition, and voice recognition for each family member.
  • the integrated video content creation program 152 selects a more appropriate video content in response to a user instruction, and creates the integrated video content.
  • the integrated video content creation program 152 can select video content by directly using the family profile stored in the family profile database 159. For example, consider a case where “Father” is included in the content creation instruction information. In this case, the integrated video content creation program 152 accesses the family profile database 159 and searches for a family profile related to father's preference and the like. Then, based on the retrieved family profile, video content related to father's preference or the like is selected to create integrated video content.
  • the family profile can also be used for weighting the video feature parameters. That is, the feature point learning program 153 can update the conversion coefficient in the same manner as the process of S22 of FIG. 7 using the family profile, and can update the meta information in the meta information database 157. As an example, in a family with many children, the conversion factor is updated or weighted so that the weight of the video feature parameter of “children” is lightened to dilute the feature of “children” and make other features stand out. Change the value.
  • the family profile can also be used to edit each scenario in the scenario database 158.
  • the scenario learning program 154 edits each scenario using the family profile.
  • the family profile stored in the family profile database 159 has many children's photos
  • the existing scenario is edited so that the child's scene becomes longer, or the child creates a new main scenario.
  • family profiles can be shared without exception. Therefore, it is possible to update the meta information using the family profile effectively without collecting the family profile scattered in each information device in the home server 100.
  • the home server 100 transmits the entire family or the family profile of each family member thus collected, added, updated, etc. to the information providing server 200 (see FIG. 1) on the external network 2 via the gateway server 10. .
  • the information providing server 200 Based on the received family profile, the information providing server 200 transmits advertisement information, video content, and the like suitable for the preference of the family or each family member to the home server 100z.
  • the advertisement information is displayed on the integrated video content on-screen, for example.
  • Scenario learning program 154 updates scenario editing, scenario feature parameters, scene feature parameters, and the like based on playback history information and the like, similar to feature point learning program 153. For example, consider a case where the integrated video content created using the scenario 1582 of FIG. According to the reproduction history information at this time, scenes 4, 8, 12, 16, and 20 are repeated, and other scenes are skipped. In this case, the video of the entire family seems to be the video that the user wanted to watch. Therefore, the scenario learning program 154 edits the scenario 1582 so as to increase the clipping time of scenes 4, 8, 12, 16, and 20 and shorten the clipping time of other scenes, for example. Also, for example, the scene feature parameter weight values of scenes 4, 8, 12, 16, and 20 are increased, and the scene feature parameter weight values of other scenes are decreased.
  • the scenario learning program 154 may edit the scenario so that the clipping time becomes longer as the scene has a larger number of repeats.
  • the clipping time is increased or decreased according to the number of repeats, for example, linearly, exponentially, or logarithmically.
  • the scenario learning program 154 can change the weighting value of each scenario feature parameter based on the number of times the scenario is selected in S11 of FIG. For example, when a scenario with a large number of selections is used as a high-quality scenario, the weight value of each scenario feature parameter is changed so that the scenario is further selected.
  • the feature point learning program 153 and the scenario learning program 154 feed back various parameters to appropriate values based on the reproduction history information and the like.
  • Such feedback processing is performed not only by the feature point learning program 153 but also by the integrated video content creation program 152.
  • the integrated video content creation program 152 updates the threshold used for the scenario selection process in S11 of FIG. 5 based on all the meta information stored in the meta information database 157. That is, the video feature parameters of each meta information as feature points of each video content are clustered into, for example, two by a clustering method such as the K-average method to calculate the center of each cluster, and an intermediate value of these centers is set as a threshold value To do. In this case, an optimum threshold value is set according to the tendency of the video content stored in the content database 156.
  • the integrated video content creation program 152 and the scenario learning program 154 may be linked to execute the following feedback processing. That is, when the clipping target is, for example, a laughing scene, the integrated video content creation program 152 clips a scene from n seconds before the start of laughing to laughing. The integrated video content creation program 152 randomly sets “n seconds” at this time for each clipping.
  • the scenario learning program 154 analyzes the reproduction history information of the laughing scene. The scenario learning program 154 calculates n ′ seconds that are determined to be optimal based on the analysis result, and passes them to the integrated video content creation program 152. Thereafter, the integrated video content creation program 152 clips a scene from laughter to n 'seconds before the start of laughing until laughing.
  • n seconds are set as a time of 2 seconds or more and less than 10 seconds.
  • n seconds may be set randomly between 2 seconds and less than 10 seconds, or may be set to a time reflecting the user's intention to some extent by user operation.
  • the probability that a first time (eg, a time between 2 seconds and less than 3 seconds) is set as n seconds is 30%, and a second time (eg, a time between 3 seconds and less than 5 seconds) is set.
  • the probability of being set can be set to 40%, and the probability of setting the third time (for example, a time of 5 seconds to less than 10 seconds) can be set to 30%.
  • n seconds are set at random.
  • the time zone immediately before the occurrence of an event here, laughter
  • specific content for example, a family photo.
  • the clipping time and period in this case may also be learned by various learning programs, and a clipping time and period suitable for the user may be further set based on the learning result.
  • the home server 100 automatically collects the video content stored in the information device such as the HDD recorder 21 and then integrates the video content. Have created.
  • second embodiment another embodiment in which the home server does not have such an automatic video content collection function or does not perform automatic collection processing will be described.
  • the home server and each information device perform a linkage process different from that in the first embodiment, so that the integrated video content is automatically edited and created without burdening the user and operating work. can do.
  • the network configuration of the second embodiment is the same as that shown in FIG.
  • the same or similar components as those of the first embodiment are denoted by the same or similar reference numerals, and description thereof is omitted.
  • each information device such as the HDD recorder 21 has the meta information database 157, and adds meta information to the video content instead of the home server and stores it in the meta information database 157. That is, each information device records the video content, etc., and at the same time performs the same processing as S3 to S5 in FIG. 3, that is, the video content feature point analysis (S3), the generation of meta information based on the analyzed feature points (S4), The meta information is stored in the meta information database 157 (S5). Since the video content is not collected by the home server even after the processing of S3 to S5, it is scattered on the network.
  • FIG. 8 is a block diagram showing the configuration of the home server 100z installed in the home LAN 1 of the second embodiment.
  • the HDD 150 of the home server 100z includes a meta information collection program 151z, an integrated video content creation program 152z, a feature point learning program 153, a scenario learning program 154, a family profile learning program 155, a meta information database 157z, a scenario database 158, and a family profile database. 159 is stored.
  • FIG. 9 is a flowchart showing meta information collection processing executed by the meta information collection program 151z.
  • the meta information collection program 151z periodically accesses the meta information database 157 of each information device after being resident in the RAM 140 (S31).
  • the meta information collection program 151z accumulates the meta information of each information device collected in this way in the meta information database 157z (S34).
  • the meta information collection program 151z accumulates meta information, the content identification information for identifying the video content (for example, the video content name or the ID assigned to the video content) and the location information of the video content (for example, the information device)
  • a MAC address, other unique ID, URL (Uniform Resource Locator) of the video content, or a unique ID of the removable media when the video content is recorded on the removable media are added to the meta information.
  • FIG. 10 is a sequence diagram showing processing for creating integrated video content.
  • one information device notebook PC 23 in this case
  • content creation instruction information is input
  • processing for creating integrated video content shown in FIG. 10 is started (S41).
  • the notebook PC 23 transmits the input content creation instruction information to the home server 100z (S42).
  • the CPU 120 starts execution of the integrated video content creation program 152z.
  • the integrated video content creation program 152z performs processing similar to S11 to S12 in FIG. 5, that is, selection of a scenario suitable for the content creation instruction information, access to the meta information database 157z in which meta information is centrally managed, and each of the selected scenarios. Meta information suitable for the scene is searched (S43).
  • the response message that is, the meta information searched together with the selected scenario is returned to the notebook PC 23 (S44).
  • Note PC 23 determines the access destination with reference to the location information of the video content included in the received meta information (S45). Next, a request message including content identification information or URL is transmitted to each information device having video content corresponding to the determined access destination, that is, meta information (S46). Depending on the search result of the home server 100z, the URL of the video content held by the notebook PC 23 itself may be included in the access destination.
  • the information device that has received the request message from the notebook PC 23 searches for the video content specified in the request message from the response corresponding to the content identification information or URL in the request message, that is, the video content held by itself. (S47) Return to the notebook PC 23 (S48). In this way, the video content of each scene necessary for the integrated video content is collected in the notebook PC 23. Using the collected video content and the selected scenario received from the home server 100z, the notebook PC 23 performs the same processing as S14 to S15 in FIG. 5 to create integrated video content (S49). The created integrated video content is decoded and reproduced by the video codec of the notebook PC 23 (S50).
  • the integrated video content can be automatically edited and created without collecting the video content held by each information device in the home server 100z, that is, one storage device. For this reason, there is no operation or work burden associated with the collection of video content on the user.
  • meta information updating, scenario editing, family profile updating, and the like may be performed by various learning programs as in the first embodiment.
  • the resident program according to the feature of the present invention may be scattered in each information device in the home LAN 1, or all information devices may have the resident program.
  • Various databases may be scattered in each information device in the home LAN 1.
  • the home server 100 itself may record and store video content and reproduce it. This means that the home server 100 functions as a DMS and a DMP, so that the present invention can be realized by the home server 100 alone.
  • the content to be processed includes not only video content but also any type of content included in the content definition described above.
  • the content to be processed includes not only video content but also any type of content included in the content definition described above.
  • a new mixed content of a plurality of formats Content can be created.
  • the timing for collecting the playback history information is not limited to the regular timing.
  • each information device can access the home server 100 simultaneously with generating the reproduction history information and the like, and transfer the reproduction history information and the like to the home server 100 in real time.
  • the device that collects reproduction history information and the like is not limited to the home server 100.
  • any information device in the home LAN 1 may collect reproduction history information and the like held by each information device regularly or in real time and transfer them to the home server 100.
  • each information device may record meta information and generate meta information at the same time.
  • the home server 100 collects meta information together with the video content.
  • content reflecting user preferences and the like may be viewed using a comic viewer (an application for reading comics on an information device).
  • contents collected and edited based on content creation instruction information and scenarios for example, clipping videos and captured images in video contents
  • digital comic Create content For example, the voice in the clipping video and the voice before and after the capture image are converted into text using well-known voice recognition and attached as a speech to the balloon. This type of sound may be used as a sound effect reproduced during frame display, for example.
  • the created digital comic content is stored in the home server 100, for example. Alternatively, it is attached to an e-mail and transmitted to the mobile phone 24 or the like.
  • the comic viewer When the digital comic content is designated by operating the mobile phone 24, the comic viewer is activated and the content is reproduced. Alternatively, if the digital comic content is designated by operating the mobile phone 24 in advance to activate the comic viewer, the content is reproduced.
  • the user can view content that suits his / her preferences in a comic format.
  • the display on the screen basically moves to each frame each time an operation such as clicking is performed.
  • a specific part in the frame is zoomed in or out for each operation such as a click and is sequentially displayed.
  • a specific display method for large frames for example, (1) First, zoom in on the center of the frame, and then shift the display location sequentially to the right and left sides of the frame.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 コンテンツの再生内容が指示された場合に、少なくとも1つの特徴点について評価された複数のコンテンツの中から指示に適した特徴点評価を有するコンテンツを選択するコンテンツ選択ステップと、選択されたコンテンツを再生するコンテンツ再生ステップと、コンテンツの再生履歴に基づき該コンテンツの特徴点評価を更新する特徴点評価更新ステップとを含むコンテンツ自動再生方法を提供する。

Description

コンテンツ自動再生方法、コンテンツ自動再生プログラム、コンテンツ自動再生システム、およびコンテンツ自動再生サーバ
 本発明は、コンテンツの特徴点評価を再生状況に応じて適切な値に更新するコンテンツ自動再生方法、コンテンツ自動再生プログラム、コンテンツ自動再生システム、およびコンテンツ自動再生サーバに関する。
 近年、半導体メモリやHDD(Hard Disk Drive)等の情報記録メディアの大容量化や価格下落が進んだことから、DCC(Digital CamCorder)やDSC(Digital Still Camera)、HDDレコーダ等の情報家電やPC(Personal Computer)等に大容量の記憶装置が搭載されるようになっている。このため、記憶装置の残容量を気にすることなく例えばDCCやDSC等を用いて次々と撮影を行い、動画ファイルや静止画ファイル等を記憶装置(メモリカード等)に大量に蓄積させることができる。また、放送或いはネットワーク伝送される映像系デジタルコンテンツをHDDレコーダやPC等のHDDに大量に録画してためておくことができる。以下、本明細書において動画ファイルや静止画ファイル、映像系デジタルコンテンツ等を「映像コンテンツ」と記す。なお、本明細書において「コンテンツ」と表現した場合には、映像コンテンツだけでなく、マークアップ文書やオーディオデータ、ドキュメントデータ、ワークシート、またはそれらの組み合わせで構成されるデータ等も含まれる。
 ところで、このような大容量の記憶装置に蓄積された大量の映像コンテンツには似通った内容のものが数多く含まれている。そのため、全ての映像コンテンツを視聴することは退屈であり、時間の浪費となる。そこで、オーサリングツール等を使用して複数の映像コンテンツを編集、統合して一つの映像コンテンツ(以下、「統合映像コンテンツ」と記す。)にまとめることが行われる。複数の映像コンテンツを編集して統合映像コンテンツを作成する装置の例は、特開2005-303840号公報(以下、「特許文献1」と記す。)や特開2000-125253号公報(以下、「特許文献2」と記す。)等に開示されている。
 特許文献1に記載の動画編集装置は、複数の動画が記憶された動画記憶部を有している。当該編集装置は、ユーザ入力された検索条件にしたがって動画記憶部から動画を検索し、検索結果をリスト表示する。ユーザは、表示されたリストのなかから所望の動画を選択し、選択された各動画を時系列に並べることにより一本の映像を完成させる。当該編集装置においては、動画をユーザ自らが選択して並べることにより所望の映像を作成できる反面、映像作成作業が煩雑になる問題がある。
 特許文献2に記載の動画編集装置は、全ての動画素材の中からユーザの指定するシーンを含む箇所(切り出し範囲)を抽出し、抽出された切り出し範囲を一覧にした合成リストを作成する。そして、作成された合成リストにしたがって指定シーンに対応する切り出し範囲を連続的に再生する。このように特許文献2においては、動画の選択から、リスト作成、編集再生までの一連の作業が装置側で自動的に行われる。したがって、特許文献1と異なり映像作成作業の煩雑さが無い。その一方で、映像作成作業を自動化したことにより動画の選択基準等が装置のプログラム設計に依存する。しかし、ユーザのあらゆる指示を予め想定して適切な動画選択等がなされるようにプログラムを設計することは、実際上困難である。このため、特許文献2の装置においては、再生される映像がユーザの意図した内容から外れた映像になる問題が内在することになる。
 このように従来の映像編集技術においては、ユーザ自らが統合映像コンテンツを作成できる構成を採用すると、ユーザの意図した編集が可能になる反面、映像作成作業が煩雑化する問題がある。一方、煩雑化解消のため映像作成作業が自動的に行われる構成を採用すると、ユーザの意図から外れた統合映像コンテンツが作成される問題が生じる。そこで、このような二律背反の関係にある問題を同時に解消することが望まれている。
 本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、映像作成作業の自動化と、ユーザの指示内容に適した統合映像コンテンツの作成との両立を好適に実現させるためのコンテンツ自動再生方法、コンテンツ自動再生プログラム、コンテンツ自動再生システム、およびコンテンツ自動再生サーバを提供することにある。
 上記の課題を解決する本発明の一形態に係るコンテンツ自動再生方法は、コンテンツの再生内容が指示された場合に、少なくとも1つの特徴点について評価された複数のコンテンツの中から指示に適した特徴点評価を有するコンテンツを選択するコンテンツ選択ステップと、選択されたコンテンツを再生するコンテンツ再生ステップと、コンテンツの再生履歴に基づき該コンテンツの特徴点評価を更新する第一の特徴点評価更新ステップとを含むことを特徴とした方法である。
 このようにコンテンツの再生状況に応じて該コンテンツの特徴点評価を更新することにより、多数のコンテンツのなかからユーザが再生させたいコンテンツが自動的に選択、再生されるようになる。
 本発明に係るコンテンツ自動再生方法は、コンテンツを記憶するコンテンツ記憶ステップと、特徴点を定義する特徴点定義に基づき記憶されたコンテンツを少なくとも1つの特徴点について評価するコンテンツ評価ステップとをさらに含む方法としてもよい。
 また、本発明に係るコンテンツ自動再生方法は、利用者に関する利用者情報を収集する利用者情報収集ステップと、収集された利用者情報に基づきコンテンツの特徴点評価を更新する第二の特徴点評価更新ステップとがさらに含まれる方法としてもよい。さらには、収集された利用者情報を解析して新たな利用者情報を生成する利用者情報生成ステップがさらに含まれる方法としてもよい。この場合、好ましくは、コンテンツ選択ステップにおいて利用者情報も加味してコンテンツが選択される。
 また、本発明に係るコンテンツ自動再生方法は、コンテンツの再生履歴に基づき利用者情報を更新する利用者情報更新ステップをさらに含む方法としてもよい。
 また、本発明に係るコンテンツ自動再生方法は、利用者情報を利用者毎に分類する利用者情報分類ステップと、利用者情報または分類された利用者毎の情報を利用者の特徴を表現する情報として所定のサーバに送信する情報送信ステップとをさらに含む方法としてもよい。
 さらには、コンテンツの再生内容が指示された場合に、少なくとも1つの特徴点評価に関連付けされた複数のシナリオのなかから指示に適した特徴点評価を有するシナリオを選択するシナリオ選択ステップがさらに含まれる方法としてもよい。この場合、コンテンツ選択ステップにおいては、選択されたシナリオに基づきコンテンツが選択される。
 また、シナリオがそれぞれ異なる特徴点評価に関連付けされた複数のシーンによって構成される場合には、コンテンツ選択ステップにおいて、選択されたシナリオの各シーンの特徴点評価に基づき各シーンのコンテンツを選択し、コンテンツ再生ステップにおいて、各シーンに対して選択されたコンテンツをシナリオで定められた順に再生するようにしてもよい。
 このようなシナリオを用いるコンテンツ自動再生方法においては、再生履歴に基づきシナリオを編集するシナリオ編集ステップがさらに含まれ得る。あるいは、利用者情報に基づきシナリオを編集するシナリオ編集ステップがさらに含まれ得る。再生履歴には、例えば通常の再生、スキップ、リピート再生、高速再生等の、シーンがどのように再生されたかを表す情報が含まれる。例えばスキップや高速再生されたシーン等は再生されにくく、また、リピート再生されたシーン等は再生されやすくなるように特徴点に重み付けを行うことにより、より好適なシナリオ編集処理を支援することができる。また、再生履歴に基づきユーザの嗜好等を解析し、解析結果を用いてより好適なシナリオ編集処理を支援することもできる。
 また、上記の課題を解決する本発明の一形態に係るコンテンツ自動再生プログラムは、上記の何れかに記載のコンテンツ自動再生方法の各ステップをコンピュータに実行させるためのプログラムである。
 さらに、上記の課題を解決する本発明の一形態に係るコンテンツ自動再生システムは、少なくとも1つの特徴点について評価されたコンテンツを複数記憶するコンテンツ記憶手段と、複数のコンテンツのなかから特徴点評価に基づきコンテンツを選択するコンテンツ選択手段と、選択されたコンテンツを再生するコンテンツ再生手段と、コンテンツの再生履歴に基づき該コンテンツの特徴点評価を更新する特徴点評価更新手段とを有することを特徴としたシステムである。
 このようなコンテンツ自動再生システムは、コンテンツ記憶手段にコンテンツを記憶する際に少なくとも1つの特徴点についてコンテンツを評価するコンテンツ評価手段をさらに有する構成としてもよい。
 また、コンテンツ自動再生システムは、利用者に関する利用者情報を収集する利用者情報収集手段をさらに有する構成としてもよい。この場合、特徴点評価更新手段は、収集された利用者情報も用いてコンテンツの特徴点評価を更新する。また、コンテンツ自動再生システムは、収集された利用者情報を解析して新たな利用者情報を生成する利用者情報生成手段をさらに有する構成としてもよい。コンテンツ選択手段は、好ましくは、利用者情報も加味してコンテンツを選択する。
 また、コンテンツ自動再生システムは、コンテンツの再生履歴に基づき利用者情報を更新する利用者情報更新手段をさらに有する構成としてもよい。
 また、コンテンツ自動再生システムは、利用者情報を利用者毎に分類する利用者情報分類手段と、利用者情報または分類された利用者毎の情報を利用者の特徴を表現する情報として所定のサーバに送信する情報送信手段とをさらに有する構成としてもよい。
 コンテンツ自動再生システムは、さらに、ユーザ操作を受け付ける操作手段と、少なくとも1つの特徴点評価に関連付けされたシナリオを複数記憶するシナリオ記憶手段と、操作手段によりコンテンツの再生内容が指示された場合に、複数のシナリオのなかから該指示に適した特徴点評価を有するシナリオを選択するシナリオ選択手段とを有する構成としてもよい。この場合にコンテンツ選択手段は、選択されたシナリオに基づきコンテンツを選択する。
 また、シナリオがそれぞれ異なる特徴点評価に関連付けされた複数のシーンによって構成される場合に、コンテンツ選択手段は、選択されたシナリオの各シーンの特徴点評価に基づき各シーンのコンテンツを選択し、コンテンツ再生手段は、各シーンに対して選択されたコンテンツをシナリオで定められた順に再生するように構成されてもよい。
 コンテンツ自動再生システムは、再生履歴に基づきシナリオを編集するシナリオ編集手段をさらに有する構成としてもよい。あるいは、利用者情報に基づきシナリオを編集するシナリオ編集手段をさらに有する構成としてもよい。
 また、上記の課題を解決する本発明の一形態に係るコンテンツ自動再生サーバは、少なくとも1つの特徴点について評価されたコンテンツを複数記憶するコンテンツ記憶手段と、複数のコンテンツのなかから特徴点評価に基づきコンテンツを選択するコンテンツ選択手段と、選択されたコンテンツを再生するコンテンツ再生手段と、コンテンツの再生履歴に基づき該コンテンツの特徴点評価を更新する特徴点評価更新手段とを有することを特徴とする。
 本発明のコンテンツ自動再生方法、コンテンツ自動再生プログラム、およびコンテンツ自動再生システムを利用することにより、映像作成作業の自動化と、ユーザの意図に忠実な統合映像コンテンツの作成との両立が好適に実現されるようになる。
本発明の実施形態を説明するためのネットワーク構成図である。 本発明の実施形態のホームサーバの構成を示すブロック図である。 本発明の実施形態のコンテンツ収集プログラムにより実行されるコンテンツ収集処理を示すフローチャート図である。 図3のS4の処理により生成されるメタ情報の一例を示す図である。 本発明の実施形態の統合映像コンテンツ作成プログラムにより実行される統合映像コンテンツ作成処理を示すフローチャート図である。 本発明の実施形態のシナリオデータベースに格納されたシナリオ例を示す図である。 本発明の実施形態の特徴点学習プログラムにより実行される特徴点学習処理を示すフローチャート図である。 別の実施形態のホームサーバの構成を示すブロック図である。 別の実施形態のメタ情報収集プログラムにより実行されるメタ情報収集処理を示すフローチャート図である。 別の実施形態における統合映像コンテンツを作成する処理を示すシーケンス図である。
 以下、図面を参照して、本発明の実施形態について説明する。
 図1は、本実施形態を説明するためのネットワーク構成図である。図1に示されるように本実施形態のネットワークは、家庭内LAN(Local Area Network)1と外部ネットワーク2により構築される。
 家庭内LAN1には、ゲートウェイサーバ10および複数の情報機器(HDDレコーダ21、TV(Television)22、ノートPC23、ホームサーバ100等)が配置されている。ゲートウェイサーバ10は、スイッチングおよびルーティング機能を有しており、家庭内LAN1内の各情報機器を相互接続するとともに外部ネットワーク2上に、あるいは図示省略された他のネットワーク上に配置された端末と通信することができる。
 家庭内LAN1には、HDDレコーダ21、TV22、ノートPC23以外の情報機器も接続されている。また、電子レンジや冷蔵庫等の情報家電も接続されている。なお、以降の説明においては便宜上、情報家電も情報機器と記す。家庭内LAN1に接続された全ての情報機器にはホームネットワークに関する共通の技術仕様に準拠したミドルウェアやクライアントソフトウェアが実装され、家庭内LAN接続に適した構成を有する。本実施形態においては、各情報機器は共通の技術仕様であるDLNA(Digital Living Network Alliance)に準拠したものであり、HDDレコーダ21はDMS(Digital Media Server)として、TV22はDMP(Digital Media Player)として、ノートPC23はDMSおよびDMPとして、それぞれ機能する。また、ホームサーバ100は、デスクトップPCであり、ノートPC23と同様にDMSおよびDMPとして機能する。なお、Havi(Home Audio/Video interoperability)、Jini等の別の技術仕様に適合した情報機器によって家庭内LANを構成してもよい。
 ホームサーバ100は、HDDレコーダ21をはじめとする家庭内LAN1内の各情報機器に記憶されたコンテンツを収集して蓄積することができる。また、外部ネットワーク2上に配置された情報機器(例えば携帯電話24)に記憶されたコンテンツを外部ネットワーク2、ゲートウェイサーバ10経由で取得して蓄積することもできる。ホームサーバ100へのコンテンツの蓄積は、ホームサーバ100や各情報機器の設定、またはユーザ操作等にしたがって行われる。
 図2は、ホームサーバ100の構成を示すブロック図である。ホームサーバ100を構成する各要素は、システムバス110を介してCPU120と相互に接続されている。CPU120は、ホームサーバ100の電源投入後、システムバス110を介して必要なハードウェアにアクセスする。
 例えばホームサーバ100の電源投入直後は、CPU(Central Processing Unit)120がROM(Read-Only Memory)130にアクセスする。CPU120は、ROM130に格納されたブートローダをRAM(Random Access Memory)140にロードして起動する。ブートローダを起動したCPU120は、次いでHDD150に格納されたOS(Operating System)をRAM140にロードして起動する。これにより、各要素がOSによるリソース、プロセス管理下で必要に応じて連係動作して各種処理を実行する。OS起動後は、HDD150に格納された各種常駐プログラムがRAM140に常駐する。このような常駐プログラムには、本発明の特徴に係るコンテンツ収集プログラム151、統合映像コンテンツ作成プログラム152、特徴点学習プログラム153、シナリオ学習プログラム154、家族プロファイル学習プログラム155等がある。以下、これらの常駐プログラムについて説明する。
 図3は、コンテンツ収集プログラム151により実行されるコンテンツ収集処理を示すフローチャート図である。図3に示されるように、コンテンツ収集プログラム151は、例えばRAM140に常駐した時点で、映像コンテンツ(例えばMPEG-2(Moving Picture Experts Group phase 2)形式)をリクエストするリクエストメッセージを、ネットワークインタフェース160を介して同一セグメント、つまり家庭内LAN1内の各DMSにユニキャストで個別に(またはマルチキャストで)送信する(ステップ1。以下、本明細書および図面においてステップを「S」と略記する。)。リクエストメッセージを受信した情報機器は、自己の保有するコンテンツリスト等を参照して、前回のリクエストメッセージ受信時から映像コンテンツが更新や追加等されたかチェックする。そして、更新や追加等された映像コンテンツがある場合には、該映像コンテンツをホームサーバ100にアップロードする。
 次に、コンテンツ収集プログラム151は、各端末から受信した映像コンテンツをHDD150内のコンテンツデータベース156に格納すると同時に該映像コンテンツを解析して様々な特徴点について評価する(S2、S3)。ここで、特徴点とは、例えば「おばあちゃん」(被写体人物)、「二人」(被写体の人数)、「笑い」(被写体の表情)、「食べる」(被写体の動作)、「浴衣」(被写体の服装)、「戸外」(撮影場所)、「夕方」(撮影時刻)、「週末」(撮影日時)、「見下ろし」(被写体と撮影者との位置・角度関係)、「誕生日」(家族の年中行事)、「ズームイン」(撮影パターン)等の映像コンテンツを特徴付ける要素である。特徴点には、映像コンテンツに記録された映像や音声の特徴のみならず、映像コンテンツの撮影者、撮影日時等の情報も含まれる。特徴点の解析処理においては、例えば動作認識や顔表情認識、対象物認識、音声認識等の周知の認識アルゴリズムにより映像コンテンツ中の画像や音声の特徴点が抽出、数値化される。このように数値化された各映像コンテンツの各種特徴点に関する情報を、映像特徴パラメータと呼ぶ。解析処理において対象物認識や音声認識等を行う際には、家族プロファイルデータベース159に記憶された後述する家族プロファイルが参照され、被写体(例えば「弟」)や撮影者(例えば「父」の声)が特定される。また、撮影日時や撮影者については、映像コンテンツ・ファイルのタイムスタンプやプロパティから取得することもできる。あるいは、家族プロファイルを使用することにより、被写体の身長や顔つき等から、撮影時における被写体の年齢(すなわち、映像コンテンツの撮影時期)を推定することもできる。
 コンテンツ収集プログラム151は、このように各特徴点について映像コンテンツを解析した結果である映像特徴パラメータのリスト(以下、「メタ情報」という。)を生成する(S4)。具体的には、各特徴点に対応した所定の関数を用いて、当該特徴点に関する映像コンテンツの評価を示す映像特徴パラメータを計算する。図4に、S4の処理により生成されるメタ情報の一例を示す。図4に示されるように、メタ情報は、「父」、「母」、「姉」、「弟」・・・等の各特徴点に対応する映像特徴パラメータ群で構成される。本実施形態においては、各種映像特徴パラメータは、例えば0~1の数値で表現される。図4のメタ情報は、映像コンテンツが例えば姉と弟を主たる被写体とした無音声の映像であり、ズームインされたシーンが多く含まれる内容であることを示している。生成されたメタ情報は、HDD150内のメタ情報データベース157に格納される(S5)。
 このように同一セグメント内の各情報機器が保持する映像コンテンツは、コンテンツ収集プログラム151によって自動的に収集され、コンテンツ収集プログラム151によって特徴点解析が行われてメタ情報が生成される。なお、他のセグメントの情報機器(例えば携帯電話24)が保持する映像コンテンツまでは自動収集しない。他のセグメントの情報機器が保持する映像コンテンツは、該情報機器がマニュアル操作されたときにはじめてホームサーバ100にアップロードされ蓄積される。また、ホームサーバ100や各情報機器を設定変更して、同一セグメントの情報機器が保持する映像コンテンツもマニュアル操作されたときにはじめてホームサーバ100にアップロードされ蓄積されるようにしてもよい。
 図5は、統合映像コンテンツ作成プログラム152により実行される統合映像コンテンツ作成処理を示すフローチャート図である。統合映像コンテンツ作成プログラム152は、シナリオに基づいて統合映像コンテンツを作成する。図6(a)、(b)はそれぞれ、HDD150内のシナリオデータベース158に格納されたシナリオの例(シナリオ1581、1582)を示す。各シナリオは、1つ以上のシーン定義Sから構成される。シーン定義Sは、シーンの特徴(当該シーンに割り当てる映像コンテンツに求められる映像特徴パラメータ)を定義する複数種類のシーン特徴パラメータや、各シーンの割当時間パラメータ等から構成されている。シーン特徴パラメータは、映像特徴パラメータと同じく、0~1の値で表現される。例えば図6(a)のシナリオ1581におけるシーン1を定義するシーン定義Sには、(姉、誕生日、笑い、悲しみ・・・)=(0.8、1、0.8、0.1・・・)といったシーン特徴パラメータが設定されている。なお、シナリオ自体にもシーン特徴パラメータと同様のシナリオ特徴パラメータが関連付けられている。シナリオ特徴パラメータは、例えばシナリオを構成する各シーン定義のシーン特徴パラメータに基づき計算される。または、各シーン定義のシーン特徴パラメータとは独立して付与されたシナリオ全体の流れを表現するパラメータであってもよい。各シナリオやシーン定義は、シナリオデータベース158に例えばテンプレートとして予め格納されている。なお、シナリオやシーン定義は、例えば専用のエディタを使用してユーザが独自に作成することもできるが、映像機器メーカ等が配布するものを例えばインターネット上のサーバからダウンロードして利用することもできる。
 ここで、家庭内LAN1に接続されたTV22やノートPC23等のクライアントをユーザが操作して、視聴したい映像コンテンツのテーマや登場人物、再生総時間等が入力された場合を考える。このとき入力された情報はホームサーバ100に送信される。ホームサーバ100によって該入力情報が受信されると、CPU120により統合映像コンテンツ作成プログラム152の実行が開始される。以下、説明の便宜上、該入力情報を「コンテンツ作成指示情報」と記す。
 図5に示されるように、統合映像コンテンツ作成プログラム152は、先ず、シナリオデータベース158にアクセスして各シナリオを参照し、コンテンツ作成指示情報に適したシナリオを選択する(S11)。コンテンツ作成指示情報が「姉」、「誕生日」である場合には、例えば「姉」、「誕生日」のシナリオ特徴パラメータがともに所定値(例えば0.6)以上のシナリオ(ここではシナリオ1581)が選択される。
 統合映像コンテンツ作成プログラム152は、続いてメタ情報データベース157にアクセスし、選択されたシナリオの各シーンに適したメタ情報を検索する(S12)。例えばシナリオ1581のシーン1に対しては、「姉」、「誕生日」の映像特徴パラメータが所定値以上でかつ2002年に撮影された映像コンテンツのメタ情報が検索される。
 統合映像コンテンツ作成プログラム152は、コンテンツデータベース156にアクセスし、検索されたメタ情報に対応する映像コンテンツを選択シナリオのシーン毎に読み込む(S13)。各シーンに対しては、例えば検索順位が最上位のメタ情報に対応する映像コンテンツが読み込まれる。メタ情報の検索順位は、シーン定義S(具体的には、シーン特徴パラメータ)とメタ情報との一致度にしたがって決定される。
 統合映像コンテンツ作成プログラム152は、読み込まれた映像コンテンツをシーン毎にクリッピングして配列し、シーン映像を生成する(S14)。ここではシナリオ1581のシーン1~20それぞれについて対応するシーン映像が生成される。例えばシーン1の場合は、2002年の姉の誕生日に撮影された映像コンテンツ中の25秒間の映像がシーン映像としてクリッピングされる。映像コンテンツの時間軸におけるクリッピングの開始点は、例えばランダムに設定される。また、撮影時間の長い映像は後半冗長になりやすいため、前半の映像が優先的にクリッピングされる。
 統合映像コンテンツ作成プログラム152は、生成された各シーン映像をシーン1~20の順に配列して隣り合うシーン映像を繋げて一連の映像コンテンツ、つまり統合映像コンテンツを作成する(S15)。シーン映像間の接続には切替エフェクト等を使用して視覚効果を高めてもよい。作成された統合映像コンテンツは、クライアント(つまりコンテンツ作成指示情報の送信元)に送信される。クライアントは、受信した統合映像コンテンツを映像コーデックによりデコードして再生する。なお、ユーザは、作成された統合映像コンテンツをHDD150に任意に保存することができる。
 このように統合映像コンテンツ作成プログラム152を実行させた場合は、統合映像コンテンツが自動的に作成されるため映像作成作業の煩雑さが無い反面、映像内容が特徴点評価(メタ情報)やシナリオ選択等の固定されたアルゴリズム設計に依存する問題がある。つまり、アルゴリズムの設計次第では、ユーザの意図する内容から外れた統合映像コンテンツが作成される虞がある。ここで、ユーザは、意図した通りに統合映像コンテンツが作成されるように例えばシナリオデータベース158内の各シナリオを編集することができる。しかし、このようなシナリオ編集作業によって統合映像コンテンツの内容を向上させるには相当の試行錯誤が必要である。すなわちシナリオ編集作業による上記問題の解決は、編集作業が煩雑なうえに困難性が伴うため有効とはいえない。このような事情を鑑みて、映像作成作業の煩雑さを無くしつつも統合映像コンテンツの内容向上を図るべく、ホームサーバ100には特徴点学習プログラム153、シナリオ学習プログラム154、家族プロファイル学習プログラム155等の学習プログラムが実装されている。
 図7は、特徴点学習プログラム153により実行される特徴点学習処理を示すフローチャート図である。図7に示されるように、特徴点学習プログラム153は、RAM140に常駐後、コンテンツ収集プログラム151によるメタ情報の生成、およびクライアントの所定の共有情報の更新を監視する(S21~S23)。
 特徴点学習プログラム153は、コンテンツ収集プログラム151によりメタ情報が生成されたことを検出した場合(S21、S22:YES)、例えばTF-IDF(Term Frequency-Inverse Document Frequency)法を応用したアルゴリズムにより、図3のS4の処理で用いられる関数の変換係数、つまり映像コンテンツの特徴点を映像特徴パラメータ群に変換するための係数を更新する(S24)。該アルゴリズムによれば、メタ情報データベース157に格納された全てのメタ情報に基づき、コンテンツデータベース156に格納された映像コンテンツの傾向が解析される。例えば笑顔の映像が多いといった解析結果が得られた場合を考える。この場合、コンテンツデータベース156に格納された映像コンテンツのなかで笑顔の多い映像コンテンツは特徴的な映像コンテンツとはいえない。すなわち、「笑い」の映像特徴パラメータによって映像コンテンツを差別化することは難しい。そこで、特徴点学習プログラム153は、「笑い」という特徴を敢えて希薄化させて他の特徴を際立たせるため、「笑い」の映像特徴パラメータの重みが軽くなるように変換係数を更新する。コンテンツ収集プログラム151は、更新された変換係数を用いることにより、映像コンテンツの特徴をより的確に表現したメタ情報を生成するようになる。この結果、統合映像コンテンツ作成プログラム152は、コンテンツ作成指示情報により適した映像コンテンツを選択して統合映像コンテンツを作成するようになる。特徴点学習プログラム153は変換係数更新後、S21の処理に復帰する。
 また、S24の処理において笑顔の映像が多いといった解析結果が得られた場合に、「笑い」という単一の映像特徴パラメータを「笑い」、「大笑い」、「くすくす笑い」等の複数の映像特徴パラメータに細分化してもよい。この場合、映像コンテンツを笑いの程度に応じて更に細かく区別し特徴付けられるようになる。
 ところで、DLNAガイドライン等に準拠した情報機器が接続されたセグメント内では、各情報機器間において情報交換が相互になされ、各種情報が共有される。このため家庭内LAN1では、TV22やノートPC23等のクライアントにおけるコンテンツの再生履歴に関する詳細な情報をクライアントとホームサーバ100で共有することができる。クライアントは、例えば統合映像コンテンツの再生が終了する毎に共有フォルダに置かれた再生履歴情報を更新する。再生履歴情報は、例えば統合映像コンテンツ中の何れのシーンにおいて再生、スキップ、リピート、早送り、巻き戻し、停止等の操作が行われたかを示す情報を有する。
 特徴点学習プログラム153は、各クライアントの共有フォルダに定期的にアクセスして、共有フォルダ内の再生履歴情報が更新されているかどうかを監視する(S21~S23)。共有フォルダ内の再生履歴情報が更新されている場合には(S21、S22:NO、S23:YES)、該再生履歴情報を用いてメタ情報データベース157内に保持される後述の重み付け値を更新する(S25)。例えばシナリオ1581を用いて作成された統合映像コンテンツがTV22により再生された場合を考える。このときの再生履歴情報によれば、シーン1~16がリピートされ、シーン17~20が再生されていない。したがって、特徴点学習プログラム153は、リピート再生されたシーン1~16の映像コンテンツのメタ情報において例えば一定の水準(例えば、0.6)より高い値をもつ全ての映像特徴パラメータ(またはシーン特徴パラメータ)の重み付け値を上げるとともに、シーン17~20の映像コンテンツのメタ情報において一定の水準より高い全ての映像特徴パラメータの重み付け値(またはシーン特徴パラメータ)を下げる。なお、HDD150は、各特徴点に対応する重み付け値のリスト(不図示)を保持しており、統合映像コンテンツ作成プログラム152が各シーンに対応するメタ情報を検索する際に該重み付け値のリストを参照して、シナリオのシーン定義Sに含まれるシーン特徴パラメータに該重み付け値を加えた値と一致するメタ情報を検索する。また、特徴点学習プログラム153は、再生履歴情報の更新等があったときに、該重み付け値のリストを参照して、特徴点の重み付け値を更新する。また、リピート回数と映像特徴パラメータとの相関を計算して、相関係数に応じた重み付け値が付与されるようにしてもよい。付与される重み付け値は、リピート回数に応じて、例えばリニアに、指数関数的に、または対数的に増減される。これにより、統合映像コンテンツ作成プログラム152は、コンテンツデータベース156内に同じような内容の映像コンテンツが複数ある場合にもユーザが特に視聴したいと思う映像コンテンツを選択して統合映像コンテンツを作成するようになる。特徴点学習プログラム153は重み付け処理後、S21の処理に復帰する。
 特徴点学習プログラム153は、共有フォルダ内の再生履歴情報の監視処理の代替処理として、各クライアントの共有フォルダ内の再生履歴情報を定期的に取得するようにしてもよい。この場合、S25の処理においては、全ての再生履歴情報に基づきメタ情報データベース157内のメタ情報が更新される。例えば再生日時が新しい映像コンテンツのメタ情報の映像特徴パラメータほど高い重み付け値が付与される。この結果、統合映像コンテンツ作成プログラム152は、ユーザの最近の嗜好等に適した映像コンテンツを選択して統合映像コンテンツを作成するようになる。
 上記は、特徴点学習プログラム153による映像特徴パラメータの更新処理の例示であり、他にも様々な更新処理が想定される。上記以外には、例えば家族プロファイルを利用した映像特徴パラメータの更新処理が想定される。ここでいう家族プロファイルとは、家庭内LAN1および外部ネットワーク2上の一部の情報機器(携帯電話24等)が保有する家族に関する情報である。HDDレコーダ21には、例えば家族各人が録画した映像コンテンツが「父」、「母」、「姉」、「弟」等の各録画カテゴリに関連付けて記憶されている。また、家族各人の視聴履歴や番組予約等の情報も記録されている。また、ノートPC23の家族各人のドキュメントフォルダには、Webページの閲覧履歴や写真、音楽等が格納されている。各情報機器に散在するこれらの情報は、家族構成や家族各人の嗜好、身体的情報等を反映している。
 家族プロファイル学習プログラム155は、各情報機器に散在する家族プロファイルを収集してHDD150内に家族プロファイルデータベース159を構築する。また、再生履歴情報等に基づき家族プロファイルデータベース159内の家族プロファイルを更新し、あるいは家族プロファイルを追加する。一例として、再生されたシーンの内容や再生頻度等に基づき家族の嗜好等を推定して家族プロファイルを更新または追加する。また、コンテンツ作成指示情報を入力するGUI(Graphical User Interface)において操作者情報も併せて入力させるようにする。そして、該コンテンツ作成指示情報に応じた統合映像コンテンツの再生が終了した時に生成される再生履歴情報に操作者情報を関連付ける。再生履歴情報に関連付けられた操作者情報を利用することにより、全ての再生履歴情報のなかから家族各人の再生履歴情報を分類する。このようにして分類された再生履歴情報、さらには家族各人の視聴履歴や番組予約等の他の情報に基づき家族各人の嗜好等を推定して(例えば次段落にて説明される因子分析等を用いて嗜好等を表現する分布を生成し)、家族各人の家族プロファイルを更新または追加することができる。
 家族プロファイル学習プログラム155は、さらに、データマイニングの手法等により家族プロファイルに基づく家族の行動パターン解析も行い、解析結果を家族プロファイルとして家族プロファイルデータベース159に蓄積する。このように従来各情報機器に散在していた家族プロファイルを収集して管理、解析することにより、有益な情報が新たに発見される可能性がある。
 例えば因子分析等の多変量解析を用いて家族の特徴を分析し、新たな家族プロファイルを生成することができる。具体的には、n種類の映像特徴パラメータの各々を座標軸とするn次元仮想空間を定義し、該n次元仮想空間にメタ情報に基づき映像コンテンツを分布させる。次いで、映像コンテンツの分布を多変量解析することによりm(m<nであり、例えばm=3)種類の主成分を抽出し、各主成分の値をもつ主成分ベクトルを求める。求められた主成分ベクトルの情報に基づき、n次元仮想空間上の映像コンテンツの分布をより低次なm次元仮想空間(ここでは各主成分を座標軸として定義された三次元仮想空間)に写像する。三次元仮想空間上の映像コンテンツの分布は、家族が潜在的に有する特徴を表現している。このような分布で表現された家族プロファイルを利用することにより、特徴点に対する変換係数や各特徴点に対応する重み付け値の更新等を行うことができる。また、該分布で表現された家族プロファイルに適したシナリオ等を選択したりインターネット上のサーバからダウンロードしたりすることもできる。
 また、クラスタ分析等の手法を用いて新たな家族プロファイルを生成することもできる。例えばn種類の映像特徴パラメータを映像コンテンツの再生状況等によって重み付け等の更新が頻繁になされるパラメータのクラスタと、頻繁にはなされないパラメータのクラスタの2つのクラスタに分類する。その分類に基づき家族の特徴を抽出して家族プロファイルを生成する。例えば前者のクラスタに注目して家族の特徴を抽出することができる。
 家族プロファイルデータベース159に蓄積された家族プロファイルは、様々な処理に活用することができる。これらの家族プロファイルに例えば家族各人の身長や声、好きな服の色やパターン、好きなスポーツ、年齢等が含まれる場合を考える。この場合、家族プロファイルに基づき認識アルゴリズムで用いられる認識用のリファレンスデータを更新し、家族各人の動作認識や対象物認識、音声認識等の認識アルゴリズムの精度を向上させることができる。この結果、統合映像コンテンツ作成プログラム152は、ユーザの指示に対してより適切な映像コンテンツを選択して統合映像コンテンツを作成するようになる。
 また、統合映像コンテンツ作成プログラム152は、家族プロファイルデータベース159に蓄積された家族プロファイルを直接的に活用して映像コンテンツを選択することができる。例えばコンテンツ作成指示情報に「父」が含まれる場合を考える。この場合、統合映像コンテンツ作成プログラム152は、家族プロファイルデータベース159にアクセスして父の嗜好等に関する家族プロファイルを検索する。そして、検索された家族プロファイルに基づき父の嗜好等に関する映像コンテンツを選択して統合映像コンテンツを作成する。
 家族プロファイルは、映像特徴パラメータの重み付け処理にも活用することができる。すなわち、特徴点学習プログラム153は、家族プロファイルを利用して図7のS22の処理と同じく変換係数を更新し、また、メタ情報データベース157内のメタ情報を更新することができる。一例として、子供が多い家庭の場合には「子供」という特徴を希薄化させて他の特徴を際立たせるため、「子供」の映像特徴パラメータの重み付けが軽くなるように変換係数を更新したり重み付け値を変動させたりする。
 家族プロファイルは、さらに、シナリオデータベース158内の各シナリオの編集にも活用することができる。具体的には、シナリオ学習プログラム154が家族プロファイルを利用して各シナリオの編集を行う。一例として、家族プロファイルデータベース159に蓄積された家族プロファイルに子供の写真が多い場合には、子供のシーンが長くなるように既存のシナリオを編集し、または子供がメインのシナリオを新たに作成する。
 なお、上述したようにDLNAガイドラインに対応する情報機器間においては各種情報が共有されることから、家族プロファイルも例外無く共有可能である。したがって、各情報機器に散在する家族プロファイルをホームサーバ100に収集することなく、家族プロファイルを有効活用したメタ情報の更新等を行うことができる。
 ホームサーバ100は、このようにして収集、追加、更新等された家族全体または家族各人の家族プロファイルをゲートウェイサーバ10を介して外部ネットワーク2上の情報提供サーバ200(図1参照)に送信する。情報提供サーバ200は、受信した家族プロファイルに基づき家族または家族各人の嗜好等に適した広告情報や映像コンテンツ等をホームサーバ100zに発信する。広告情報は、例えば統合映像コンテンツにオンスクリーンで表示される。
 シナリオ学習プログラム154は、特徴点学習プログラム153と同様に再生履歴情報等に基づきシナリオ編集やシナリオ特徴パラメータ、シーン特徴パラメータ等を更新する。例えば図6(b)のシナリオ1582を用いて作成された統合映像コンテンツがTV22により再生された場合を考える。このときの再生履歴情報によれば、シーン4、8、12、16、20がリピートされ、それ以外のシーンがスキップされている。この場合、家族全員の映像がユーザの視聴したかった映像と思われる。したがって、シナリオ学習プログラム154は、例えばシーン4、8、12、16、20のクリッピング時間を長くし、それ以外のシーンのクリッピング時間を短くするようにシナリオ1582を編集する。また、例えばシーン4、8、12、16、20のシーン特徴パラメータの重み付け値を上げるとともにそれ以外のシーンのシーン特徴パラメータの重み付け値を下げる。以降、ユーザが春の週末の戸外の映像を視聴するようにコンテンツ作成指示情報を入力した場合には、家族全員が写された統合映像コンテンツが作成されやすくなる。また、シナリオ学習プログラム154は、リピート回数が多いシーンほどクリッピング時間が長くなるようにシナリオ編集してもよい。クリッピング時間は、リピート回数に応じて、例えばリニアに、指数関数的に、または対数的に増減される。
 また、シナリオ学習プログラム154は、図5のS11の処理におけるシナリオの選択回数や再生日時等に基づき、各シナリオ特徴パラメータの重み付け値を変動させることができる。例えば選択回数が多いシナリオを良質なシナリオとする場合には、該シナリオがさらに選択されるように各シナリオ特徴パラメータの重み付け値を変動させる。
 このように特徴点学習プログラム153とシナリオ学習プログラム154は、再生履歴情報等に基づき各種パラメータを適切な値にフィードバックしている。このようなフィードバック処理は、特徴点学習プログラム153等に限らず統合映像コンテンツ作成プログラム152も行う。具体的には、統合映像コンテンツ作成プログラム152は、メタ情報データベース157に格納された全てのメタ情報に基づき、図5のS11のシナリオ選択処理に用いる閾値を更新する。すなわち、各映像コンテンツの特徴点たる各メタ情報の映像特徴パラメータをK平均法等のクラスタリング手法により例えば2つにクラスタリングして各クラスタの中心を計算し、これらの中心の中間値を閾値として設定する。この場合、コンテンツデータベース156に格納された映像コンテンツの傾向に応じて最適な閾値が設定される。
 また、統合映像コンテンツ作成プログラム152とシナリオ学習プログラム154とが連係して以下のフィードバック処理を実行するようにしてもよい。すなわち、統合映像コンテンツ作成プログラム152は、クリッピング対象が例えば笑いのシーンである場合、笑い始めのn秒前から笑うまでのシーンをクリッピングする。統合映像コンテンツ作成プログラム152は、このときの「n秒」をクリッピング毎にランダムに設定する。一方、シナリオ学習プログラム154は、笑いのシーンの再生履歴情報を解析する。シナリオ学習プログラム154は、解析結果に基づき最適と判断されるn’秒を演算して統合映像コンテンツ作成プログラム152に渡す。以降、統合映像コンテンツ作成プログラム152は、笑いのシーンに対しては、笑い始めのn’秒前から笑うまでのシーンをクリッピングする。このようなプログラム間の連係処理により、ユーザの感性や嗜好等に合った統合映像コンテンツが作成されるようになる。
 ここで、上記n秒が2秒以上10秒未満の時間で設定される場合を例に考える。この場合においてn秒は、2秒以上10秒未満の間でランダムに設定されてもよく、或いは、ユーザ操作によりユーザの意図をある程度反映させた時間に設定されてもよい。後者の場合の具体的一例として、n秒として第一時間(例えば2秒以上3秒未満の時間)が設定される確率を30%、第二時間(例えば3秒以上5秒未満の時間)が設定される確率を40%、第三時間(例えば5秒以上10秒未満の時間)が設定される確率を30%というように設定することができる。第一~第三時間の各時間のなかではn秒はランダムに設定される。このようなユーザ設定を可能とすることにより、例えば事象(ここでは笑い)が起こる直前の時間帯を特定のコンテンツ(例えば家族写真等)の再生タイミング等に合わせて設定することができる。この場合のクリッピング時間および期間も各種学習プログラムにより学習され、該学習結果を基にユーザにとって好適なクリッピング時間および期間がさらに設定されるようにしてもよい。
 以上説明された実施形態(以下、「第一実施形態」と記す。)によれば、ホームサーバ100は、HDDレコーダ21等の情報機器に記憶された映像コンテンツを自動収集したうえで統合映像コンテンツを作成している。次に、ホームサーバがこのような映像コンテンツの自動収集機能を有さないまたは自動収集処理を行わない別の実施形態(以下、「第二実施形態」と記す。)について説明する。第二実施形態において各情報機器の映像コンテンツをホームサーバに集めるためには、ユーザ自らが各情報機器に対する映像コンテンツの保持状況を確認し、そのうえで映像コンテンツをコピーまたは移動させる必要がある。このため、第二実施形態においては、ユーザの操作、作業負担が増加するように思われる。しかし、第二実施形態においては、ホームサーバと各情報機器が第一実施形態とは異なる連係処理を行うことにより、ユーザに操作、作業負担をかけること無く統合映像コンテンツを自動的に編集し作成することができる。
 なお、第二実施形態のネットワーク構成は図1と同一構成である。第二実施形態において第一実施形態の構成と同一または同様の構成には同一または同様の符号を付して説明を省略する。
 第二実施形態においては、HDDレコーダ21等の各情報機器がメタ情報データベース157を有し、ホームサーバに代わり映像コンテンツにメタ情報を付与してメタ情報データベース157に格納する。すなわち各情報機器は、映像コンテンツを録画等すると同時に図3のS3~S5と同様の処理、すなわち映像コンテンツの特徴点解析(S3)、解析された特徴点に基づくメタ情報の生成(S4)、およびメタ情報データベース157へのメタ情報の格納(S5)を行う。映像コンテンツは、S3~S5の処理後もホームサーバに収集されないためネットワーク上に散在した状態にある。
 図8は、第二実施形態の家庭内LAN1に設置されたホームサーバ100zの構成を示すブロック図である。ホームサーバ100zのHDD150には、メタ情報収集プログラム151z、統合映像コンテンツ作成プログラム152z、特徴点学習プログラム153、シナリオ学習プログラム154、家族プロファイル学習プログラム155、メタ情報データベース157z、シナリオデータベース158、家族プロファイルデータベース159が記憶されている。
 図9は、メタ情報収集プログラム151zにより実行されるメタ情報収集処理を示すフローチャート図である。図9に示されるように、メタ情報収集プログラム151zは、RAM140に常駐後、各情報機器のメタ情報データベース157に定期的にアクセスする(S31)。次いで、各情報機器と情報を相互に交換してメタ情報データベース157に追加または更新されたメタ情報が存在するか否かを検知する(S32)。何れの情報機器のメタ情報データベース157にも追加または更新されたメタ情報が無い場合には(S32:NO)、メタ情報収集処理を終了する。一方、その何れかにおいて追加または更新されたメタ情報が有る場合には(S32:YES)、該メタ情報を収集する(S33)。メタ情報収集プログラム151zは、このようにして収集された各情報機器のメタ情報をメタ情報データベース157zに蓄積する(S34)。メタ情報収集プログラム151zは、メタ情報を蓄積する際、映像コンテンツを識別するためのコンテンツ識別情報(例えば映像コンテンツ名や映像コンテンツ固有に割り当てたID)と該映像コンテンツの所在情報(例えば情報機器のMACアドレスや他の固有ID、映像コンテンツのURL(Uniform Resource Locator)、或いは、映像コンテンツがリムーバルメディアに記録されている場合にはリムーバルメディアの固有ID等)を該メタ情報に追加する。
 このように第二実施形態においては、各情報機器が保持する映像コンテンツのメタ情報はホームサーバ100zにより一元管理される。各情報機器は、一元管理されたメタ情報を利用してホームサーバ100zおよび他の情報機器と連係処理することにより統合映像コンテンツを作成することができる。図10は、統合映像コンテンツを作成する処理を示すシーケンス図である。一つの情報機器(ここではノートPC23)が操作されてコンテンツ作成指示情報が入力されると、図10に示される統合映像コンテンツを作成する処理が開始される(S41)。
 ノートPC23は、入力されたコンテンツ作成指示情報をホームサーバ100zに送信する(S42)。ホームサーバ100zによってコンテンツ作成指示情報が受信されるとCPU120により統合映像コンテンツ作成プログラム152zの実行が開始される。統合映像コンテンツ作成プログラム152zは、図5のS11~S12と同様の処理、すなわちコンテンツ作成指示情報に適したシナリオの選択、メタ情報を一元管理したメタ情報データベース157zへのアクセス、および選択シナリオの各シーンに適したメタ情報の検索を行う(S43)。次いで、レスポンスメッセージ、つまり選択シナリオとともに検索されたメタ情報をノートPC23に返す(S44)。
 ノートPC23は、受信されたメタ情報が有する映像コンテンツの所在情報を参照してアクセス先を決定する(S45)。次いで、決定されたアクセス先、つまりメタ情報に対応する映像コンテンツを有する各情報機器に、コンテンツ識別情報またはURLを含むリクエストメッセージを送信する(S46)。ホームサーバ100zの検索結果によっては、ノートPC23自身が保持する映像コンテンツのURLがアクセス先に含まれる場合もある。
 ノートPC23からリクエストメッセージを受け取った情報機器は、リクエストメッセージ中のコンテンツ識別情報またはURLに応じたレスポンス、すなわち自己が保持する映像コンテンツのなかから、該リクエストメッセージ中で指定された映像コンテンツを検索して(S47)ノートPC23に返す(S48)。このようにして統合映像コンテンツに必要な各シーンの映像コンテンツがノートPC23に集められる。ノートPC23は、収集された映像コンテンツおよびホームサーバ100zから受け取った選択シナリオを用いて図5のS14~S15と同様の処理を行い、統合映像コンテンツを作成する(S49)。作成された統合映像コンテンツは、ノートPC23の映像コーデックによりデコードされ再生される(S50)。
 以上のように第二実施形態においては、各情報機器が保持する映像コンテンツをホームサーバ100z、つまり一つの記憶装置に収集すること無く統合映像コンテンツを自動的に編集し作成することができる。このため、映像コンテンツの収集に伴う操作、作業負担がユーザに無い。また、第二実施形態では家庭内LAN1のトラフィック面において有利な効果がある。その例示として、各情報機器が情報量の多い映像コンテンツを同時に収集した際にトラフィックが著しく増加してネットワーク障害が発生するといった心配がないことが挙げられる。また、家庭内LAN1内のネットワーク伝送路を伝送される映像コンテンツが統合映像コンテンツの作成に必要とされる最低限の映像コンテンツに限られる。このため、ネットワーク伝送路を映像コンテンツ以外の他のデータの伝送に割り当てやすくなり、情報機器間においてより多様な情報の交換が可能になる効果も期待できる。
 なお、第二実施形態においても第一実施形態と同様に各種学習プログラムによるメタ情報の更新やシナリオ編集、家族プロファイル更新等が行われるようにしてもよい。
 以上が本発明の実施形態の説明である。本発明は、上記の構成に限定されるものではなく、本発明の技術的思想の範囲において様々な変形が可能である。例えば本発明の特徴に係る常駐プログラムは、家庭内LAN1内の各情報機器に散在してもよく、あるいは全ての情報機器が該常駐プログラムを有する構成としてもよい。また、各種データベースも家庭内LAN1内の各情報機器に散在する構成としてもよい。また、ホームサーバ100自らが映像コンテンツを録画して蓄積し、再生するようにしてもよい。これは、ホームサーバ100がDMSおよびDMPとして機能することにより本発明がホームサーバ100単体でも成立することを意味する。
 また、例えば処理対象となるコンテンツには映像コンテンツだけでなく、上述したコンテンツの定義に含まれるあらゆる形式のコンテンツが含まれる。この場合、例えばサーバサイドで一元管理されたコンテンツリスト等にアクセスしてネットワークに散在する多様なコンテンツのうちユーザが求めるコンテンツだけを収集して処理を施し、複数形式のコンテンツを混合させた新たなコンテンツを作成することができる。
 また、再生履歴情報(さらには情報機器の動作情報全般)を収集するタイミングは、定期的なタイミングに限定されない。例えば各情報機器は、再生履歴情報等を生成すると同時にホームサーバ100にアクセスし、該再生履歴情報等をホームサーバ100にリアルタイムに転送することができる。また、再生履歴情報等を収集する装置は、ホームサーバ100に限定されない。例えば家庭内LAN1内の何れかの情報機器が、各情報機器が持つ再生履歴情報等を定期的にまたはリアルタイムに収集してホームサーバ100に転送するようにしてもよい。
 また、第一実施形態において第二実施形態と同様に、各情報機器が映像コンテンツを録画等すると同時にメタ情報を生成するようにしてもよい。この場合、ホームサーバ100は、映像コンテンツとともにメタ情報も収集することとなる。
 別の実施形態においては、ユーザの嗜好等を反映したコンテンツをコミックビューア(情報機器上で漫画を読むためのアプリケーション)を利用して視聴できるようにしてもよい。具体的には、例えばコンテンツ作成指示情報やシナリオに基づいて収集、編集されたコンテンツ(例えば映像コンテンツ中のクリッピング動画やキャプチャ画像)をコマ割りを持つコミック形式のテンプレートの各コマに嵌め込み、デジタルコミックコンテンツを作成する。吹き出しには、例えばクリッピング動画中の音声やキャプチャ画像前後の音声が周知の音声認識を用いてテキスト化されて、セリフとして付される。この種の音声は、例えばコマ表示時に再生される効果音として利用されてもよい。作成されたデジタルコミックコンテンツは、例えばホームサーバ100等に蓄積される。または、電子メールに添付されて携帯電話24等に送信される。携帯電話24を操作してデジタルコミックコンテンツを指定すると、コミックビューアが起動して当該コンテンツが再生される。或いは、携帯電話24を操作してコミックビューアを予め起動させてデジタルコミックコンテンツを指定すると、当該コンテンツが再生される。かかる実施形態によれば、ユーザは、嗜好に合うコンテンツをコミック形式で視聴することができる。なお、コミックビューアでは、基本的に、画面上の表示がクリック等の操作がされる毎に各コマに順次移動する。そして、大きなコマではクリック等の操作毎に当該コマ中の特定の箇所がズームイン又はズームアウトされて順次表示される。大きなコマに対する具体的表示方法として、例えば、
(1)最初にコマの中央にズームインして、次いで当該コマの右側、左側に表示箇所を順次シフトする。
(2)最初にコマの右端にズームインして、それから順々に左端に向けて表示箇所をシフトする。
(3)最初にコマの右上にズームインして、次いで、中上、左上、右中、中中、中左・・・というように順に左上から右下に表示箇所をシフトする。
(4)最初にコマの吹き出しにズームインして、それから吹き出し以外の箇所を上記のように左上から右下に順々に表示する。
等が考えられる。更に、大きなコマの中に大きな写真を嵌め込み、その中でコンテンツ作成指示情報やシナリオに最も適合する箇所(例えば「孫」が写っている箇所等)にズームインして、次いで、それ以外の箇所を順々に表示するようにしてもよい。

Claims (25)

  1.  コンテンツの再生内容が指示された場合に、
      少なくとも1つの特徴点について評価された複数のコンテンツの中から前記指示に適した特徴点評価を有するコンテンツを選択するコンテンツ選択ステップと、
      前記選択されたコンテンツを再生するコンテンツ再生ステップと、
      前記コンテンツの再生履歴に基づき該コンテンツの特徴点評価を更新する第一の特徴点評価更新ステップと、
    を含むことを特徴とするコンテンツ自動再生方法。
  2.  コンテンツを記憶するコンテンツ記憶ステップと、
     前記特徴点を定義する特徴点定義に基づき前記記憶されたコンテンツを前記少なくとも1つの特徴点について評価するコンテンツ評価ステップと、
    をさらに含むことを特徴とする、請求項1に記載のコンテンツ自動再生方法。
  3.  利用者に関する利用者情報を収集する利用者情報収集ステップと、
     前記収集された利用者情報に基づき前記コンテンツの特徴点評価を更新する第二の特徴点評価更新ステップと、
    をさらに含むことを特徴とする、請求項1または請求項2の何れか一項に記載のコンテンツ自動再生方法。
  4.  前記収集された利用者情報を解析して新たな利用者情報を生成する利用者情報生成ステップをさらに含むことを特徴とする、請求項3に記載のコンテンツ自動再生方法。
  5.  前記コンテンツ選択ステップにおいて、前記利用者情報を使用することを特徴とする、請求項3または請求項4の何れか一項に記載のコンテンツ自動再生方法。
  6.  前記コンテンツの再生履歴に基づき前記利用者情報を更新する利用者情報更新ステップをさらに含むことを特徴とする、請求項3から請求項5の何れか一項に記載のコンテンツ自動再生方法。
  7.  前記利用者情報を利用者毎に分類する利用者情報分類ステップと、
     前記利用者情報または分類された利用者毎の情報を利用者の特徴を表現する情報として所定のサーバに送信する情報送信ステップと、
    をさらに含むことを特徴とする、請求項3から請求項6の何れか一項に記載のコンテンツ自動再生方法。
  8.  コンテンツの再生内容が指示された場合に、
      少なくとも1つの特徴点評価に関連付けされた複数のシナリオのなかから前記指示に適した特徴点評価を有するシナリオを選択するシナリオ選択ステップをさらに含む、
      前記コンテンツ選択ステップにおいて、前記選択されたシナリオに基づきコンテンツを選択することを特徴とする、請求項1から請求項7の何れか一項に記載のコンテンツ自動再生方法。
  9.  前記シナリオがそれぞれ異なる特徴点評価に関連付けされた複数のシーンによって構成される場合に、
      前記コンテンツ選択ステップにおいて、前記選択されたシナリオの各シーンの特徴点評価に基づき各シーンのコンテンツを選択し、
      前記コンテンツ再生ステップにおいて、各シーンに対して選択されたコンテンツを前記シナリオで定められた順に再生することを特徴とする、請求項8に記載のコンテンツ自動再生方法。
  10.  前記再生履歴に基づき前記シナリオを編集するシナリオ編集ステップをさらに含むことを特徴とする、請求項8または請求項9の何れか一項に記載のコンテンツ自動再生方法。
  11.  前記利用者情報に基づき前記シナリオを編集するシナリオ編集ステップをさらに含むことを特徴とする、請求項3から請求項7の何れか一項を引用する請求項8または請求項9の何れか一項に記載のコンテンツ自動再生方法。
  12.  請求項1から請求項11の何れか一項に記載のコンテンツ自動再生方法の各ステップをコンピュータに実行させるためのコンテンツ自動再生プログラム。
  13.  少なくとも1つの特徴点について評価されたコンテンツを複数記憶するコンテンツ記憶手段と、
     前記複数のコンテンツのなかから前記特徴点評価に基づきコンテンツを選択するコンテンツ選択手段と、
     前記選択されたコンテンツを再生するコンテンツ再生手段と、
     前記コンテンツの再生履歴に基づき該コンテンツの特徴点評価を更新する特徴点評価更新手段と、
    を有することを特徴とするコンテンツ自動再生システム。
  14.  前記コンテンツ記憶手段にコンテンツを記憶する際に前記少なくとも1つの特徴点についてコンテンツを評価するコンテンツ評価手段をさらに有することを特徴とする、請求項13に記載のコンテンツ自動再生システム。
  15.  利用者に関する利用者情報を収集する利用者情報収集手段をさらに有し、
     前記特徴点評価更新手段は、前記収集された利用者情報も用いて前記コンテンツの特徴点評価を更新することを特徴とする、請求項13または請求項14の何れか一項に記載のコンテンツ自動再生システム。
  16.  前記収集された利用者情報を解析して新たな利用者情報を生成する利用者情報生成手段をさらに有することを特徴とする、請求項15に記載のコンテンツ自動再生システム。
  17.  前記コンテンツ選択手段は、前記利用者情報も加味して前記コンテンツを選択することを特徴とする、請求項15または請求項16の何れか一項に記載のコンテンツ自動再生システム。
  18.  前記コンテンツの再生履歴に基づき前記利用者情報を更新する利用者情報更新手段をさらに有することを特徴とする、請求項15から請求項17の何れか一項に記載のコンテンツ自動再生システム。
  19.  前記利用者情報を利用者毎に分類する利用者情報分類手段と、
     前記利用者情報または分類された利用者毎の情報を利用者の特徴を表現する情報として所定のサーバに送信する情報送信手段と、
    をさらに有することを特徴とする、請求項15から請求項18の何れか一項に記載のコンテンツ自動再生システム。
  20.  ユーザ操作を受け付ける操作手段と、
     少なくとも1つの特徴点評価に関連付けされたシナリオを複数記憶するシナリオ記憶手段と、
     前記操作手段によりコンテンツの再生内容が指示された場合に、前記複数のシナリオのなかから該指示に適した特徴点評価を有するシナリオを選択するシナリオ選択手段と、
    をさらに有し、
     前記コンテンツ選択手段は、前記選択されたシナリオに基づきコンテンツを選択することを特徴とする、請求項13から請求項19の何れか一項に記載のコンテンツ自動再生システム。
  21.  前記シナリオがそれぞれ異なる特徴点評価に関連付けされた複数のシーンによって構成される場合に、
      前記コンテンツ選択手段は、前記選択されたシナリオの各シーンの特徴点評価に基づき各シーンのコンテンツを選択し、
      前記コンテンツ再生手段は、各シーンに対して選択されたコンテンツを前記シナリオで定められた順に再生することを特徴とする、請求項20に記載のコンテンツ自動再生システム。
  22.  前記再生履歴に基づき前記シナリオを編集するシナリオ編集手段をさらに有することを特徴とする、請求項20または請求項21の何れか一項に記載のコンテンツ自動再生システム。
  23.  前記利用者情報に基づき前記シナリオを編集するシナリオ編集手段をさらに有することを特徴とする、請求項15から請求項18の何れか一項を引用する請求項20または請求項21の何れか一項に記載のコンテンツ自動再生システム。
  24.  前記コンテンツは、映像コンテンツであることを特徴とする、請求項13から請求項23の何れか一項に記載のコンテンツ自動再生システム。
  25.  少なくとも1つの特徴点について評価されたコンテンツを複数記憶するコンテンツ記憶手段と、
     前記複数のコンテンツのなかから前記特徴点評価に基づきコンテンツを選択するコンテンツ選択手段と、
     前記選択されたコンテンツを再生するコンテンツ再生手段と、
     前記コンテンツの再生履歴に基づき該コンテンツの特徴点評価を更新する特徴点評価更新手段と、
    を有することを特徴とするコンテンツ自動再生サーバ。
PCT/JP2009/059773 2008-05-30 2009-05-28 コンテンツ自動再生方法、コンテンツ自動再生プログラム、コンテンツ自動再生システム、およびコンテンツ自動再生サーバ WO2009145257A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-142222 2008-05-30
JP2008142222A JP2011171782A (ja) 2008-05-30 2008-05-30 コンテンツ自動再生方法、コンテンツ自動再生プログラム、コンテンツ自動再生システム、およびコンテンツ自動再生サーバ

Publications (1)

Publication Number Publication Date
WO2009145257A1 true WO2009145257A1 (ja) 2009-12-03

Family

ID=41377127

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/059773 WO2009145257A1 (ja) 2008-05-30 2009-05-28 コンテンツ自動再生方法、コンテンツ自動再生プログラム、コンテンツ自動再生システム、およびコンテンツ自動再生サーバ

Country Status (2)

Country Link
JP (1) JP2011171782A (ja)
WO (1) WO2009145257A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020065307A (ja) * 2020-01-31 2020-04-23 株式会社オープンエイト サーバおよびプログラム、動画配信システム
JP7418877B1 (ja) 2023-03-13 2024-01-22 株式会社テクロス 情報処理装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6039942B2 (ja) * 2012-07-09 2016-12-07 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
JP6478162B2 (ja) * 2016-02-29 2019-03-06 株式会社Hearr 携帯端末装置およびコンテンツ配信システム
WO2022014295A1 (ja) * 2020-07-15 2022-01-20 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007105265A1 (ja) * 2006-03-10 2007-09-20 Fujitsu Limited 再生装置、再生装置の制御方法、プログラム及びコンピュータ読取可能記録媒体
WO2007139105A1 (ja) * 2006-05-31 2007-12-06 Pioneer Corporation 放送受信装置、ダイジェスト生成方法、およびダイジェスト生成プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007105265A1 (ja) * 2006-03-10 2007-09-20 Fujitsu Limited 再生装置、再生装置の制御方法、プログラム及びコンピュータ読取可能記録媒体
WO2007139105A1 (ja) * 2006-05-31 2007-12-06 Pioneer Corporation 放送受信装置、ダイジェスト生成方法、およびダイジェスト生成プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020065307A (ja) * 2020-01-31 2020-04-23 株式会社オープンエイト サーバおよびプログラム、動画配信システム
JP7418877B1 (ja) 2023-03-13 2024-01-22 株式会社テクロス 情報処理装置

Also Published As

Publication number Publication date
JP2011171782A (ja) 2011-09-01

Similar Documents

Publication Publication Date Title
JP4944919B2 (ja) メディアファイルの自動選択
US8180826B2 (en) Media sharing and authoring on the web
US9189137B2 (en) Method and system for browsing, searching and sharing of personal video by a non-parametric approach
KR101564415B1 (ko) 통합 채널 관리를 통한 컨텐트 재생 방법 및 장치
US20080235191A1 (en) Organizing Content Using a Dynamic Profile
JP4538757B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20150020106A1 (en) Personalized video content from media sources
JP2009512008A (ja) ユーザに向けてレンダリングすることが可能なデータ項目を扱う装置
US20210117471A1 (en) Method and system for automatically generating a video from an online product representation
WO2004086355A1 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US20080229207A1 (en) Content Presentation System
WO2009145257A1 (ja) コンテンツ自動再生方法、コンテンツ自動再生プログラム、コンテンツ自動再生システム、およびコンテンツ自動再生サーバ
WO2004068354A1 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
KR20130019509A (ko) 콘텐츠 구간 정보 표시 방법, 콘텐츠 재생 장치 및 콘텐츠 제공 시스템
WO2009145226A1 (ja) コンテンツ管理方法、コンテンツ自動編集方法、コンテンツ管理プログラム、コンテンツ自動編集プログラム、サーバ、情報機器、およびコンテンツ自動編集システム
JP5043711B2 (ja) ビデオ評価装置及び方法
KR101377737B1 (ko) 네트워크에 접속된 휴대가능 저장 장치들에 대한 저장프로파일 생성
US20080065695A1 (en) System and method for nondeterministic media playback selected from a plurality of distributed media libraries
WO2014103374A1 (ja) 情報管理装置、サーバ及び制御方法
CN101471115B (zh) 拍摄装置和拍摄方法
KR102492022B1 (ko) 다중 채널 네트워크의 컨텐츠 관리 방법, 장치 및 시스템
JP2022082453A (ja) メディア消費ギャップ充填のための方法、コンピュータシステム、およびコンピュータプログラム(パーソナライズされた挿入可能なメディアを使用したギャップ充填)
TWI497959B (zh) Scene extraction and playback system, method and its recording media
JP5428661B2 (ja) 情報処理装置及び情報処理方法
US20140189769A1 (en) Information management device, server, and control method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09754765

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09754765

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP