WO2022004202A1 - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
WO2022004202A1
WO2022004202A1 PCT/JP2021/019917 JP2021019917W WO2022004202A1 WO 2022004202 A1 WO2022004202 A1 WO 2022004202A1 JP 2021019917 W JP2021019917 W JP 2021019917W WO 2022004202 A1 WO2022004202 A1 WO 2022004202A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
information processing
content
time length
Prior art date
Application number
PCT/JP2021/019917
Other languages
English (en)
French (fr)
Inventor
啓文 日比
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2022004202A1 publication Critical patent/WO2022004202A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel

Definitions

  • This technology relates to an information processing device, an information processing method, and a program, and particularly to a technology related to an information processing device that processes playback content provided to a user.
  • Edited moving image data is generated by editing the original moving image data based on predetermined conditions.
  • editing moving image data for example, as in Patent Document 1 below, a technique for extracting a digest scene (highlight scene) is known.
  • This technology was made in view of such circumstances, and aims to support the generation of appropriate edited moving image data according to the user.
  • the information processing apparatus includes a time length determination unit that determines the reproduction time length of the reproduction content provided to the user based on the position information about the user. If the location information is different, the optimum time length of the playback time of the playback content such as a moving image or music to be viewed by the user may be different.
  • the position information may be the position information of the terminal information possessed by the user. This makes it possible to specify the actual user position.
  • the information processing apparatus described above may include a distribution information generation unit that generates distribution information for reproducing the reproduced content based on the reproduction time length.
  • the reproduced content is set to an appropriate length according to the location information.
  • the position information includes the current position information of the user and the target position information
  • the time length determination unit changes from the current position based on the current position information to the target position based on the target position information.
  • the reproduction time length may be determined based on the time required for the user to arrive.
  • the information processing device described above includes a user information acquisition unit that acquires a ratio between the length of time during which the user is moving to reproduce the reproduced content and the length of time during which the user does not reproduce the reproduced content.
  • the time length determination unit may determine the reproduction time length based on the required time and the ratio acquired for the user. Depending on the user, not all of the travel time is spent playing the playback content.
  • the information processing device described above includes a selection processing unit that selects a plurality of partially reproduced contents based on predetermined conditions from one or a plurality of reproduction candidate contents, and the reproduced contents are edited by combining the plurality of partially reproduced contents. It may be reproduced content.
  • the edited / reproduced content is considered to be a combination of a plurality of reproduction contents or a combination of a part of one reproduction content.
  • the selection processing unit in the above-mentioned information processing apparatus may make the selection from one reproduction candidate content. For example, in the case of playback content whose playback time length is longer than the user's travel time, even one playback candidate content may not be appropriate to be provided to the user as it is. Further, even if the genre of the reproduced content is suitable for the user's request, it may be excluded from the reproduced content provided to the user due to the length of the reproduction time. However, according to this configuration, as the edited / reproduced content, the reproduced content such as a digest version in which some of the reproduction candidate contents are connected to each other is provided.
  • the selection processing unit in the above-mentioned information processing apparatus may make the selection from a plurality of reproduction candidate contents. As a result, the edited / reproduced content in which a plurality of reproduction candidate contents are partially connected is provided.
  • the edited / reproduced content may be a combination of a plurality of partially reproduced contents selected from one reproduction candidate content in chronological order.
  • the edited reproduction content according to the intention of the reproduction candidate content is produced.
  • the predetermined condition may be set to a high priority.
  • the partially reproduced content such as a more important scene is preferentially selected as the edited / reproduced content.
  • the information processing apparatus described above may include a user information acquisition unit that acquires information for each user as information for determining the priority. As a result, the partially reproduced content according to the user's hobbies and tastes is selected and provided as the edited / reproduced content.
  • the user information acquisition unit in the information processing apparatus may acquire the priority based on the history of the reproduced content reproduced by the user. As a result, the partially reproduced content is selected to reflect the latest user interests and the like.
  • the information processing apparatus described above includes a required time correction processing unit that performs correction processing for the required time, and the time length determination unit may determine the reproduction time length based on the corrected correction required time. good. As a result, the playback time length is newly determined even if the required time such as the user's travel time changes.
  • the required time correction processing unit in the above-mentioned information processing apparatus may use the delay information of transportation in the correction processing. As a result, even if there is a delay in the transportation system used by the user, appropriate playback content is provided accordingly.
  • the information processing apparatus described above may include a transmission processing unit for transmitting the distribution information. By providing the transmission processing unit, it is possible to transmit information for reproducing the reproduced content by using one information processing device.
  • the reproduced content may be a moving image content.
  • moving image content having an optimum playback time is provided.
  • the information processing method is an information processing method in which an information processing apparatus executes a determination process for determining the reproduction time length of the reproduction content provided to the user based on the position information about the user.
  • the program according to the present technology is a program readable by the computer device that realizes the determination function of determining the playback time length of the playback content provided to the user based on the position information about the user.
  • System configuration> an information processing system including an information processing device that performs various processes for generating edited moving image data according to a user (a person who watches a moving image) will be described.
  • moving image data and edited moving image data digest (highlight) video data, etc.
  • the “delivered video” may include live video which is unedited moving image data.
  • the video providing system 1 as an information processing system is used by a video server device 2 that manages video data, an editing device 3 as an information processing device, and a user who is a target of video distribution.
  • a video server device 2 that manages video data
  • an editing device 3 as an information processing device
  • a user who is a target of video distribution includes a plurality of user terminals 4 and a communication network 5 for connecting each of the information processing devices.
  • the video server device 2 receives and manages moving image data uploaded from an external information processing device, an image pickup device, or the like. Therefore, the video server device 2 manages the video DB (Database) 2a.
  • the editing device 3 performs a process of receiving a video distribution request from the user terminal 4, a process of editing a moving image in response to the request, a process of transmitting a distributed video to the user terminal 4, and the like. Therefore, the editing device 3 acquires a moving image from the moving image DB 2a via the moving image server device 2.
  • the editing device 3 analyzes the acquired video in order to generate the distributed video.
  • the analysis result of the moving image is stored in the analysis DB 3a managed by the editing device 3.
  • the editing device 3 identifies a user using the user terminal 4 and generates a different distribution video for each user. Therefore, the editing device 3 manages the user DB 3b in which the user's personal information (hereinafter, simply referred to as "user information") is stored.
  • user information the user's personal information
  • the distributed video generated by the editing device 3 may be physically separate data from the video before editing, or data (one or a plurality of in-points and outs) that specify a playback location in the video before editing. It may be the time information of the point).
  • a predetermined part of the moving image may be played back on the user terminal 4 by transmitting a small amount of moving image data to the user terminal 4, and in the latter case, a part of the moving image before editing ( (Partial moving image) may be played back on the user terminal 4.
  • the media fragment function of HTML Hypertext Markup Language
  • the user terminal 4 transmits user information to the editing device 3.
  • the user information may be information input by the user himself or herself, or may be information automatically transmitted by the processing of the user terminal 4.
  • the user transmits the user's position information to the editing device 3 via the user terminal 4.
  • the user's position information may be information input by the user, or the user terminal 4 that has received positioning signals transmitted from a plurality of positioning satellites included in a global positioning satellite system (GNSS: Global Navigation Satellite System). It may be information to be calculated.
  • GNSS Global Navigation Satellite System
  • the user terminal 4 plays back the distributed video based on the information received from the editing device 3.
  • the delivered video has been edited to suit each user. For example, it may be a delivered video in which only the scenes desired by the user are connected, or a delivered video having an appropriate playback time length according to the user's action time.
  • the Internet intranet, extranet, LAN (Local Area Network), CATV (Community Antenna TeleVision) communication network, virtual private network (Virtual Private Network), telephone line network, mobile communication network, satellite communication network, etc. are communication networks. It is assumed to be 5. Further, various examples are assumed for the transmission medium constituting all or a part of the communication network 5. For example, IEEE (Infrared Data Association) 1394, USB (Universal Serial Bus), power line carrier, telephone line and other wired, infrared, Bluetooth (registered trademark), 802.11 wireless such as IrDA (Infrared Data Association). , Mobile phone network, satellite line, terrestrial digital network, etc. can also be used wirelessly. Further, a CDN (Content Delivery Network) may be used when playing back a distribution video managed by the video server device 2 on the user terminal 4.
  • LAN Local Area Network
  • CATV Common Antenna TeleVision
  • virtual private network Virtual Private Network
  • telephone line network mobile communication network
  • satellite communication network etc.
  • IEEE Infrare
  • the video providing system 1 can provide the distributed video to the user terminal 4. ..
  • the hardware configurations of the moving image server device 2, the editing device 3, the user terminal 4, and various DBs included in the moving image providing system 1 will be described with reference to FIG. It should be noted that each information processing apparatus does not have to have all the configurations shown below, and may have only a part thereof.
  • the CPU 71 of the information processing apparatus has various types according to a program stored in a non-volatile memory unit 74 such as a ROM 72 or an EEPROM (Electrically Erasable Programmable Read-Only Memory), or a program loaded from the storage unit 79 into the RAM 73. Execute the process.
  • the RAM 73 also appropriately stores data and the like necessary for the CPU 71 to execute various processes.
  • the CPU 71, ROM 72, RAM 73, and non-volatile memory unit 74 are connected to each other via a bus 83.
  • An input / output interface 75 is also connected to the bus 83.
  • An input unit 76 including an operator and an operation device is connected to the input / output interface 75.
  • various controls and operation devices such as a keyboard, a mouse, a key, a dial, a touch panel, a touch pad, and a remote controller are assumed.
  • the user's operation is detected by the input unit 76, and the signal corresponding to the input operation is interpreted by the CPU 71.
  • a display unit 77 made of an LCD or an organic EL panel and an audio output unit 78 made of a speaker or the like are connected to the input / output interface 75 as one or as a separate body.
  • the display unit 77 is a display unit that performs various displays, and is composed of, for example, a display device provided in a housing of a computer device, a separate display device connected to the computer device, and the like.
  • the display unit 77 executes the display of various images for image processing, moving images to be processed, and the like on the display screen based on the instruction of the CPU 71. Further, the display unit 77 displays various operation menus, icons, messages, etc., that is, as a GUI (Graphical User Interface) based on the instruction of the CPU 71.
  • GUI Graphic User Interface
  • the input / output interface 75 may be connected to a storage unit 79 composed of a hard disk, a solid-state memory, or the like, or a communication unit 80 composed of a modem or the like.
  • the communication unit 80 performs communication processing via a transmission line such as the Internet, wired / wireless communication with various devices, bus communication, and the like.
  • a drive 81 is also connected to the input / output interface 75, if necessary, and a removable storage medium 82 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted.
  • the drive 81 can read data files such as image files and various computer programs from the removable storage medium 82.
  • the read data file is stored in the storage unit 79, and the image and sound included in the data file are output by the display unit 77 and the sound output unit 78. Further, the computer program or the like read from the removable storage medium 82 is installed in the storage unit 79 as needed.
  • software for the processing of the present embodiment can be installed via network communication by the communication unit 80 or removable storage medium 82.
  • the software may be stored in the ROM 72, the storage unit 79, or the like in advance.
  • the information processing device constituting the video server device 2, the editing device 3, the user terminal 4, and various DBs is not limited to a single computer device as shown in FIG. 2, and a plurality of computer devices may be used. It may be systematized and configured. The plurality of computer devices may be systematized by a LAN or the like, or may be arranged in a remote place by a VPN or the like using the Internet or the like. The plurality of information processing devices may include an information processing device as a server group (cloud) that can be used by a cloud computing service.
  • cloud server group
  • the CPU 71 of the editing device 3 when the CPU 71 of the editing device 3 operates based on the program, the CPU 71 of the editing device 3 has a position information acquisition unit 10, a time length determination unit 11, a required time correction processing unit 12, and a user information acquisition unit shown in FIG. It functions as 13, a selection processing unit 14, a distribution information generation unit 15, a distribution processing unit 16, an analysis processing unit 17, and the like.
  • the position information acquisition unit 10 executes a process of acquiring information on the user's current position.
  • the user's position information may be input by the user or may be acquired from the user terminal 4 possessed by the user. Further, the position information acquisition unit 10 may acquire not only the information on the current position of the user but also the information on the target position of the user.
  • the time length determination unit 11 performs a process of determining the time length (playback time length) of the distributed video to be distributed to the user.
  • the time length determined here may be the playback time length of one delivered video to be delivered to the user, or may be the total playback time length when a plurality of delivered videos are delivered to the user. That is, the length of time that the user can spend watching the reproduced content such as a moving image is determined.
  • the time length determination unit 11 uses the user's position information when determining the playback time length. Specifically, the time required for the user to move is estimated based on the user's current position information, the target position information, the moving means information, and the like. Then, the time length determination unit 11 determines the reproduction time length according to the estimated required time of the user.
  • the time length determination unit 11 may determine the reproduction time length so that the time length is the same as the estimated required time, or may determine the reproduction time length so as to be shorter than the required time.
  • the user's action history information may be used. For example, when a user goes back and forth between point A and point B on a daily basis, one point is estimated as home and the other point is estimated as work place, so that the moving means used for moving point A and point B is used. To estimate.
  • the estimated travel time may include time that is not appropriate for watching the delivered video. Based on this information, the time during which the delivered video can be viewed may be calculated and the playback time length may be determined. Alternatively, the ratio of the time devoted to viewing the delivered video to the required time may be calculated, and the playback time length may be determined based on this.
  • points A and B may be other than home and work as long as the user makes a round trip on a daily basis. For example, it may be home and someone's home, or it may be home and school. Further, not only when going back and forth between two points of point A and point B, but also when going back and forth between three or more points such as point A, point B, point C, point B, and point A. good.
  • the required time correction processing unit 12 performs processing for correcting the required time of the user. Specifically, the required time correction processing unit 12 acquires information such as transportation delay information and traffic congestion information in which the required time fluctuates, and performs processing for correcting the required time accordingly.
  • the corrected required time is referred to as the corrected required time.
  • the correction process is also performed when the required time is shortened due to the user using a transportation means different from the initial one.
  • the user information acquisition unit 13 acquires information about the user for generating (determining) the distribution video to be provided to the user. For example, it is information about hobbies and tastes such as a user's favorite sport, a favorite music genre, and a favorite entertainer's name. In addition, even if the same user likes baseball, one user prefers a home run scene or a game in which points are competed, and another user prefers a scene in which a fielder catches the ball well or a pitcher game. Hobbies and tastes may differ in detail. The user information acquisition unit 13 acquires information such as differences in hobbies and tastes.
  • the user information acquisition unit 13 may acquire information such as a favorite viewing style. For example, even if 30 minutes is given as the time during which a delivered video can be viewed, some users may watch one delivered video in 30 minutes, while others may watch a plurality of short delivered videos of several minutes. .. User information acquisition unit 13 Information on such a difference in preference may be acquired. In addition, the user information acquisition unit 13 provides information on the ratio of viewing time to the viewing time, so that there are users who spend all the time when they can watch the delivered video and users who spend about half of the time when they can watch the video. You may get it.
  • the user information acquired by the user information acquisition unit 13 also includes the acquisition of the user's action history information for determining the playback time length. Further, the user's position information may be periodically acquired, and a process of estimating the user's behavior pattern based on the history may be performed.
  • the selection processing unit 14 selects information about the distribution video from the distribution candidate videos, which are candidate videos to be distributed to the user, based on the hobby / preference information about the user acquired by the user information acquisition unit 13. I do.
  • the selection processing unit 14 selects video A and video B for a certain user, and video for another user. Select A and video C.
  • the moving image A includes scenes A1 and A2 as notable scenes
  • the moving image B includes scenes B1, B2, and B3 as notable scenes
  • the moving image C includes notable scenes. It is assumed that scene C1 and scene C2 are included.
  • the selection processing unit 14 selects each partial moving image so that the scene A1, the scene A2, the scene B1, and the scene C1 are included for a certain user, and the other For a certain user, each partial moving image is selected so that the scene B1, the scene B2, the scene C1, and the scene C2 are included.
  • the selection processing unit 14 may use priority information in these selection processes.
  • the priority information is given by the analysis processing unit 17 described later according to the type of the scene. For example, the scenes required to understand the game development are set with high priority. That is, the selection processing unit 14 selects an appropriate partial moving image from a plurality of partial moving images so as to have an appropriate reproduction time length based on the priority and the user's hobby / preference information.
  • the priority information is determined based on, for example, the user information acquired by the user information acquisition unit 13.
  • the distribution information generation unit 15 performs a process of connecting the partial videos selected by the selection processing unit 14 to generate one distribution video (playback content).
  • a distribution video that is physically different moving image data may be generated as distribution information, or information that specifies a playback location in the original video (in-point and out-point). Time information) may be generated as distribution information.
  • the information that specifies the reproduction location is described as "reproduction position information”.
  • the distribution processing unit 16 performs a process of transmitting the distribution video generated by the distribution information generation unit 15 and the time information for designating the playback location of the distribution video to the user terminal 4 as distribution information.
  • the analysis processing unit 17 performs analysis processing of the moving image.
  • the moving image analysis process may be performed by using, for example, various AI (Artificial Intelligence) engines.
  • AI engine examples include an image analysis engine, a voice analysis engine, a camera work analysis engine, and the like.
  • image analysis engine a scene analysis engine that analyzes what kind of scene it is, a person analysis engine that identifies the area where a person appears, an object analysis engine that identifies what the subject is, and characters reflected in it.
  • a character string analysis engine that acquires superimposed character information, a skeletal analysis engine that acquires subject skeletal information, a facial expression analysis engine that analyzes the facial expression of the subject, and who is in the picture.
  • Various types can be considered, such as an individual identification engine for specifying and a uniform number analysis engine for identifying the uniform number of a subject.
  • a cheer analysis engine that analyzes the loudness of cheers
  • a language analysis engine that identifies the language used in the conversation
  • a conversation analysis engine that analyzes the conversation content
  • excitement An excitement analysis engine that detects the degree can be considered.
  • a zoom-up analysis engine for example, a zoom-out analysis engine, a pan-tilt analysis engine, etc. can be considered.
  • analysis engines are examples, and other AI engines may be used, or analysis engines that do not use AI may be used.
  • the analysis processing unit 17 analyzes the person and scene type in the moving image, the scene switching timing, and the like by the analysis processing, and decomposes each into partial moving images.
  • tag information indicating the analysis result such as the scene type and the person in the picture is added to the partial video.
  • the analysis processing unit 17 assigns an index value such as a priority to each partial moving image. For example, the priority is set to a higher value for a partial moving image that includes a scene that has been greatly moved in the game development. In addition, the priority may be increased as the scene becomes more exciting, such as a scene where the audience cheers.
  • the editing device 3 may be capable of executing various processes for realizing the functions described later.
  • the editing device 3 executes a process of specifying the daily behavior of the user. Specifically, for example, the position information is acquired from the user terminal 4 at regular time intervals, and the daily behavior of the user is estimated based on this.
  • FIG. 4 shows an example of daily changes in location information of a user.
  • the average staying time at the point A is 10 hours
  • the time required to move from the point A to the point B is 1 hour
  • the average staying time at the point B is 12.
  • the time is set, and the average required time from point B to point A is one hour.
  • the viewing time of the distributed video at the point A is 2 hours on average
  • the viewing time of the distributed video in the required time from the point A to the point B is 30 minutes on average
  • the distribution in the required time from the point B to the point A is 30 minutes
  • the average viewing time of the moving image is 30 minutes
  • the average viewing time of the distributed moving image at the point B is 0 hours.
  • point B which has a long stay and has not watched the delivered video
  • point A which has a long stay and has not watched the delivered video
  • the time zone information during stay may be used for these estimations. For example, the point where you are staying from morning to evening may be estimated as your place of work, and the point where you are staying from night to morning may be estimated as your home. It should be noted that these estimates may change depending on the working hours of the user such as day shift and night shift.
  • the average viewing time may be managed separately for those calculated using only weekday data and those calculated using only holiday and holiday data.
  • the editing device 3 may determine the playback time length of 1 hour, which is the time required from the point A to the point B. However, from the user's daily activity history (movement history and viewing history), it can be seen that not all of the required time is spent on viewing the delivered video.
  • the editing device 3 may determine the playback time length by multiplying the ratio of the average viewing time to the required time (0.5) to calculate the correction required time.
  • the required time is multiplied by 0.5 to reproduce 30 minutes. It may be determined as the time length, and the distribution information generation processing described later may be performed.
  • the reproduction time length is determined according to the user's viewing mode for the reproduced moving image.
  • the present invention is not limited to the two points A and B, and three or more points including the points C and D may be considered.
  • point C visiting company
  • point B workplace
  • point B workplace
  • point D smoking
  • points A to D there are days when moving between two points such as point A (home), point B (work), and point A (home), and point A (home), point B (work), and point C ( There are also days when the visited company returns home, such as the visited company) and point A (home).
  • the mode of such a movement route may be manually input by the user according to the schedule of the day, may be automatically estimated in consideration of the time zone information, or may be estimated automatically from the user's position information. You may estimate the destination, etc. by estimating the platform or bus stop where you are. Then, the reproduction time length between each point is estimated according to the estimated movement route and the input movement route.
  • the editing device 3 performs analysis processing of the moving image managed by the moving image server device 2.
  • the analysis processing regarding the moving image data of a table tennis game will be described.
  • various analysis contents of the analysis process can be considered, but here, an example of performing excitement analysis, scene analysis, player analysis, and score analysis will be described.
  • FIG. 5 shows one screen of software that analyzes moving images.
  • the explanation will be given using the screen of the software.
  • a display area 101 for displaying the video to be analyzed On the screen, a display area 101 for displaying the video to be analyzed, a control area 102 for controlling playback, stop, volume adjustment, etc. of the video, a time axis 103, and a thumbnail display unit 104 for displaying thumbnails of the video.
  • the excitement graph 105 showing the change in the degree of excitement as an analysis result, the excitement tag display unit 106 indicating the presence or absence of a tag attached to the excitement scene, and the scene analysis result were determined to be a rally scene.
  • a rally scene tag display unit 107 showing a scene and a score display unit 108 showing a score analysis result are provided.
  • the excitement graph 105 displays an excitement graph in which the vertical axis represents the degree of excitement and the horizontal axis represents time. Further, the excitement tag display unit 106 displays the result of tagging the excitement graph with the portion exceeding the threshold value and the time zone before and after it as an excitement scene.
  • the size of cheers, the size of applause, etc. may be taken into consideration, the camera work may be taken into consideration, or the fluctuation of the score may be taken into consideration.
  • the in-point of the excitement scene may be specified as a time point before the excitement becomes large.
  • the time point at which the play that is the base point of the scene where the excitement becomes large (for example, the time when the serve starts) may be specified as the in point of the excitement scene.
  • the out point of the exciting scene is specified in consideration of the timing when the degree of excitement is settled and the timing when the scene is switched.
  • the rally scene tag display unit 107 displays the tags given during the period specified as the rally scene.
  • a rally scene is a scene in which a ball is struck without scoring any player for a certain period of time.
  • a rally scene is specified when the time length from serve to score is a certain time or longer. .. Alternatively, it may be specified as a rally scene when the number of rallies performed from the serve to the score is equal to or greater than the threshold value.
  • the score display unit 108 is a part where the score fluctuation history is displayed.
  • the score analysis may be performed, for example, by performing character recognition on the score display superimposed on the image, or by acquiring text information indicating the game development from another information processing device or the like.
  • the analysis result may not be displayed by the GUI and may only be output as text data or the like.
  • the editing device 3 sets a part of the original moving image as a partial moving image by performing the various analysis processes described above. For example, in the example shown in FIG. 5, there are three periods to which the excitement tag is attached. Each of these periods (scenes) is a partial moving image that can be selected by the selection process described later. Similarly, for the rally scene, each part to which the tag is attached is regarded as a partial moving image. If there are too many partial videos, a rally scene in which the rally lasts for a particularly long time may be set as the partial video.
  • the editing device 3 performs a process of assigning priority information to each partial moving image in consideration of the user's hobby / preference information and the like. Specifically, a first example of the priority information assigning process will be described with reference to FIGS. 6 and 7.
  • FIG. 6 shows the results of analysis for each scene type (excitement scene, decisive hit scene, player A appearance scene, rally scene) for one original video. That is, FIG. 6 shows which time zone in the original moving image was analyzed as what kind of scene. Although not shown, if it is a table tennis match, there is also a "player B appearance scene” as a scene type. In addition, in the case of a competition such as soccer, which is performed by a large number of players, there is a "player X appearance scene” for each player.
  • scenes 20 and 21 are set as exciting scenes
  • scenes 22 and 23 are set as decisive hit scenes
  • scenes 24 and 25 are set as player A appearance scenes, which are long.
  • Scenes 26 and 27 are set as rally scenes.
  • Each scene is given a priority score from 0 to 1.0 in increments of 0.1, for example.
  • the priority score is set to a higher value in the case of a more exciting scene, in the case of a decisive hit scene, the higher the value is set to the scene in which a more decisive score is taken, and in the case of a player A appearance scene.
  • a user-specific coefficient (user coefficient) is prepared for each scene type.
  • the user coefficient has, for example, a minimum value of 0 and a maximum value of 1.0.
  • the user coefficient of the excitement scene is 0.9, and the user coefficient of the player A appearance scene is 0.8.
  • the user coefficient of the decisive hit scene is 0.2 and the user coefficient of the rally scene is 0.3.
  • the editing device 3 calculates an individual priority score obtained by multiplying the general priority score by a coefficient for each user. A specific example is shown in FIG.
  • FIG. 7 shows the general priority score and the user coefficient, which are the analysis results for each scene type, at the upper part, and the time position and the final individual priority score of the partial moving image in the original moving image at the lower part.
  • the scene 24 in the original video is set as a partial video as a result of analysis of the player A appearance scene, and the final individual priority score is obtained by multiplying the general priority score 0.9 by the user coefficient 0.8. It is said to be 0.72 obtained.
  • the scene 26 in the original video is set as a partial video as a result of the analysis of the rally scene, and the final individual priority score is obtained by multiplying the general priority score 0.5 by the user coefficient 0.3. It is set to 0.15. In this way, the individual priority score is calculated for each scene.
  • the scene 20 and the scene 22 are scenes of the same moving image in the same time zone on the moving image. That is, this scene is not only a decisive hit scene but also an exciting scene.
  • the editing device 3 obtains the final individual priority score for each scene as a part of one original moving image. Then, the editing device 3 selects a scene (partial moving image) based on the final individual priority score, and generates a distribution moving image so as to have a playback time length suitable for the user. That is, one original video is edited so as to have a playback time length and distributed as a distribution video. Specifically, in the example shown in FIG. 7, a partial moving image of the scene 20 (scene 22) having an individual priority score of 0.88 is first selected, and the length of the scene 20 exceeds the playback time length. If not, the partial moving image of the scene 24 having the individual priority score of 0.72 is selected next. If the playback time length is not reached even after adding the lengths of both scenes, the partial moving image of the scene 21 is selected next.
  • a predetermined time for example, 10 seconds
  • the distribution video may be generated as a video file that is physically different from the original video, or the playback time information that is the time information for designating the playback portion of the original video is generated. You may.
  • scene types four examples (exciting scenes, etc.) are given as scene types, but various other examples are possible.
  • scene types since there are users who want to see the video from a strategic point of view in soccer, it is conceivable to set a "pulling scene” as the scene type so that the higher the pulling scene, the higher the priority score. Be done.
  • scene types of "close-up scenes” for users who want to see individual skills and experience a sense of reality
  • scene types of "scenes with conversation” for users who want to enjoy the comments of commentators.
  • the scene type of "scene near the goal” can be considered.
  • One delivered video may be generated from a plurality of original videos. For example, when a user desires a broadcast video showing the result of a sport played on a certain day, the broadcast video may be generated so that the contents of a plurality of games played on that day can be understood.
  • the processing shown in FIGS. 6 and 7 is performed for each match, that is, for each original moving image, and the individual priority score for each scene is calculated.
  • one game is shot by a plurality of image pickup devices. In that case, there are as many original moving images as there are image pickup devices. Even in that case, the processing shown in FIGS. 6 and 7 is performed for each original moving image.
  • scenes 30, 31, and 32 in the original moving image V1 are set as partial moving images that can be selected as distribution moving images to be distributed to the user. Further, in the original moving image V2, the scenes 33, 34, and 35 are set as partial moving images as exciting scenes.
  • each scene is a scene in which excitement is detected, considering that the excitement scene is the user's preference, the scene of the original video V1 is easier to be selected than the scene of the original video V2.
  • users may have their favorite team. For example, a user prefers team B to team A, and prefers team C or D to team B.
  • the individual priority score is not calculated simply by multiplying the general priority score by the user coefficient for each individual given for each scene type, but is further multiplied by an additional coefficient based on the accompanying information about the match. By doing so, the individual priority score may be calculated.
  • the additional coefficient may be a coefficient different for each individual.
  • the accompanying information is, for example, information for estimating how important the match is to the user, in other words, how interesting the match is. For example, taking baseball as an example, a regular season match may be more interesting than an open match. Also, among the regular season games, it is possible that the match in which the championship is likely to be decided is more interesting than the digestive match after the winning team is decided. Alternatively, it is necessary to consider the match in which the player belonging to the team has achieved the record. In this way, the additional coefficients are general information (information on whether or not the match is a victory decision) and information on personal hobbies and tastes (whether or not the player with the record is the player of the user's preference). Information) may be based on both.
  • the editing device 3 quantifies as an additional coefficient whether or not the user is interested in the match based on the accompanying information about the match.
  • the additional coefficient is, for example, a numerical value of 0 to 1.0.
  • FIG. 9 shows a state in which the individual priority score is calculated for each scene of the original moving image V1 and the original moving image V2 in consideration of the additional coefficient.
  • the original video V2 is more interesting than the original video V1, so even though the original video V1 has a higher degree of general excitement, there are scenes that the user should select. Most of them are the original video V2.
  • the editing device 3 obtains the final individual priority score for each scene in the plurality of original moving images. Then, the editing device 3 selects a scene (partial moving image) based on the final individual priority score, and generates a distribution moving image so as to have a playback time length suitable for the user. That is, a distribution video edited so as to have a playback time length is generated and distributed from a plurality of original videos.
  • a sports game is taken as an example, but if an additional coefficient is set as a numerical value indicating how well the theme of the original video matches the user's hobbies and tastes, what kind of video is the video? Even if it is, it can be dealt with.
  • an additional coefficient may be set in consideration of the competition type, or the news genre ( Additional coefficients may be set according to sports, entertainment, international, domestic, etc.).
  • the additional coefficient may be set not one but a plurality.
  • an additional coefficient according to the competition type and an additional coefficient according to the team may be set separately.
  • the user-specific user coefficient described in the first example of the priority information giving process may be calculated based on various information such as a competition type and a team.
  • the user coefficient is not only a numerical value indicating the user's favorite scene, but also a numerical value determined in consideration of the user's interest based on the accompanying information of the game and the user's interest for each competition type. There may be.
  • the editing device 3 acquires various types of information such as the above-mentioned user's position information and hobby / preference information as user information. Various methods are used to acquire this information.
  • location information As a method of acquiring the user's position information, various methods other than the method of receiving the position information calculated by the user terminal 4 that has received the positioning signal in GNSS can be considered.
  • an information processing device that detects a state in which the user terminal 4 is located in a predetermined position range. For example, consider a case where a user acts to have a ticket gate system read an IC (Integrated Circuit) chip provided in a user terminal 4 in order to get on a train. In this case, the ticket gate system or the user terminal 4 detects such an action and transmits information to the editing device 3, so that the editing device 3 acquires the place where the ticket gate system is arranged as the user's current position. be able to. Similar information can be obtained by using a beacon system or the like instead of the ticket gate system.
  • IC Integrated Circuit
  • the location information may be acquired by detecting that the user has made a purchase. For example, when a user uses electronic money or the like when shopping at a physical store, the user may be identifiable. Further, it is assumed that the user performs a login operation to enjoy the service when viewing the delivered video. In this case, it is possible to identify that the user who watches the delivered video and the user who made a purchase at the actual store immediately before that are the same.
  • the editing device 3 may acquire the time zone and position information of the user shopping at the actual store and the elapsed time information from that time point, and may estimate the user's current position. In this case, it is possible to appropriately estimate the user's current position by estimating based on the user's daily activity history. In that case, the current position of the user can be estimated with higher accuracy by using the operation information of public transportation.
  • the user has an information terminal other than the user terminal 4 for viewing the delivered video.
  • the location information may be acquired from an information terminal other than the user terminal 4. That is, the terminal that acquires the location information and the terminal that is the distribution destination of the distribution video may be different.
  • the editing device 3 may extract hobby / preference information by analyzing a portion skipped by the user or a portion reproduced many times in the distributed moving image.
  • the editing device 3 may distribute a plurality of moving images of different angles of view taken by different imaging devices to the user for moving images of the same game in the same time zone. Then, the user's hobby / preference information may be extracted by allowing the user to select and view the desired angle of view.
  • Processing flow> The process executed by the editing device 3 and the video providing system 1 in order to distribute the distributed video as described above to the user will be described.
  • the moving image registration process is executed from the information processing device outside the moving image providing system 1.
  • the moving image data to be registered is transmitted from the information processing device to, for example, the moving image server device 2 of the moving image providing system 1.
  • the CPU 71 of each information processing device (video server device 2, editing device 3, etc.) included in the moving image providing system 1 performs each process shown in FIG. 10 on the moving image data to be registered.
  • the CPU 71 of the video server device 2 and the editing device 3 will be simply referred to as a “processing unit”.
  • step S101 the processing unit performs a process of registering the moving image to be registered in the moving image DB 2a. At this time, other processes such as a process of checking whether or not the moving image data to be registered is a normal file may be executed together.
  • step S102 the processing unit executes analysis processing for the moving image and determines the in-point and out-point of the scene for each scene type. That is, it specifies where each scene starts and ends.
  • step S103 the processing unit executes analysis processing for the moving image and calculates a general priority score for each scene type. That is, a process of analyzing the degree of excitement for each scene and calculating a general priority score for the excitement scene, a process of analyzing the rally scene, and a process of calculating the general priority score for the rally scene are performed. ..
  • step S104 the processing unit stores the in-point and out-point information calculated in the previous step and the general priority score information in association with the moving image to be analyzed as metadata.
  • each process may be executed by any of the devices included in the video providing system 1, but as an example, the process of step S101 is executed by the CPU 71 of the video server device 2, and steps S102, S103, and S104 are executed. Each process of the above is executed by the CPU 71 of the editing device 3.
  • step S201 the user terminal 4 accumulates a video viewing history, a history of location information of the user terminal 4, a search history, and the like. This process is appropriately executed at the timing when the user views the moving image, the timing when the user terminal 4 is possessed and moved, and the timing when the search is performed. It should be noted that when the user watches the distributed video, information such as which scene is viewed and which scene is skipped without being viewed may be appropriately acquired. Further, the information storage process in step S201 may be started in response to a request from the processing unit of the moving image providing system 1.
  • step S202 the user terminal 4 executes a process of transmitting each of the accumulated information as user information to the moving image providing system 1. This process may be executed only once, may be executed periodically, or may be transmitted in response to a request from the moving image providing system 1.
  • the moving image providing system 1 that has received the user information from the user terminal 4 executes a process of storing the user information in the user DB 3b in step S301.
  • the editing device 3 can execute a process of generating a distribution moving image based on the user information stored in the user DB 3b.
  • the user terminal 4 accepts a user operation of selecting a moving image to be viewed in step S401.
  • the user terminal 4 and the editing device 3 may execute a process for acquiring a list of moving images from the moving image providing system 1 until the user finally selects the moving image to be viewed.
  • step S402 the user terminal 4 performs a process of transmitting the user's position information to the moving image providing system 1.
  • the moving image providing system 1 that has received the location information from the user terminal 4 executes a process of acquiring the user information from the user DB 3b in step S501.
  • the user information acquired here is used as information for determining the playback time length of the delivered video, for example, travel history information for estimating the user's destination and viewing for estimating the user's viewing time. History information, etc.
  • step S502 the video providing system 1 calculates the playback time length of the distributed video based on the user information.
  • the moving image providing system 1 calculates the reproduction time length by using the required time and the correction required time.
  • the video providing system 1 acquires user information in step S503.
  • the user information acquired here is information for generating a distribution moving image, for example, for determining time information (reproduction position information) of an in point and an out point of a partial moving image selected in the original moving image. Specifically, information on the user's hobbies and preferences is acquired.
  • the moving image providing system 1 generates a distribution moving image in step S504.
  • moving image data of the distributed moving image may be generated, or as described above, reproduction position information (time information of the in point and the out point of the partial moving image to be reproduced) may be generated.
  • reproduction position information time information of the in point and the out point of the partial moving image to be reproduced
  • playback time information an example of generating playback time information will be described.
  • the partial moving image to be reproduced is selected from the partial moving images, and the reproduction position information (time information of the in point and the out point) associated with the selected partial moving image as meta information is acquired.
  • step S505 the video providing system 1 transmits the acquired playback position information to the user terminal 4 for which the video distribution request has been made.
  • the user terminal 4 that has received the reproduction position information accepts the reproduction operation by the user in step S403.
  • the user terminal 4 that has received the reproduction operation by the user transmits a request for acquiring a partial moving image according to the reproduction position information to the moving image providing system 1.
  • the video server device 2 receives this request.
  • the moving image providing system 1 that has received the request for acquiring the partial moving image performs the distribution processing of the partial moving image in step S506.
  • the data of the partial moving image may be transmitted to the user terminal 4, and it is not necessary to transmit all the data of the original moving image to the user terminal 4, so that the processing load of each information processing device is reduced. And can contribute to the effective use of communication bands.
  • steps S404 and S506 are executed each time the partial moving image is played. That is, in the distributed moving image edited as an aggregate of the partial moving images so as to have the optimum playback time length, the acquisition request of the partial moving image and the distribution of the partial moving image are executed for the number of the partial moving images included in the distributed moving image.
  • the editing device 3 has a position information acquisition unit 10, a time length determination unit 11, a required time correction processing unit 12, a user information acquisition unit 13, a selection processing unit 14, a distribution information generation unit 15, and a distribution processing unit 16. , The case where each part of the analysis processing unit 17 is provided has been described.
  • the user terminal 4 may include a time information acquisition unit and a time length determination unit. According to this configuration, when there are many user terminals 4 that use the functions of the moving image providing system 1, the processing load of the editing device 3 which is a server device is reduced, the response speed is improved, and the user can use it. Convenience can be improved.
  • the editing device 3 determines the playback time length of the playback content (delivered video) provided to the user based on the position information about the user. It is provided with a determination unit 11. If the location information is different, the optimum time length of the playback time of the playback content such as a moving image or music to be viewed by the user may be different. By determining the playback time length according to the user's position information, it is possible to support the generation of playback content suitable for the user's viewing. In particular, it is possible to generate different reproduction contents for each user instead of uniformly generated reproduction contents regardless of the user, so that the user's satisfaction can be improved.
  • the position information may be the position information of the terminal information (user terminal 4) possessed by the user. This makes it possible to specify the actual user position. Therefore, the reproduction time length can be determined based on the actual position information of the user.
  • the editing device 3 has distribution information (for example, time information of an in point or an out point, etc.) for reproducing the reproduced content (distributed video) based on the reproduction time length.
  • the distribution information generation unit 15 for generating the reproduction position information may be provided.
  • the reproduced content is set to an appropriate length according to the location information. Therefore, it is possible to provide appropriate playback content according to the user's location information.
  • the position information includes the user's current position information and the target position information
  • the time length determination unit 11 changes from the current position based on the current position information to the target based on the target position information.
  • the reproduction time length may be determined based on the time required for the user to reach the position.
  • the editing device 3 acquires the ratio of the length of time during which the playback content is played while the user is moving to the length of time during which the playback content is not played.
  • the information acquisition unit 13 may be provided, and the time length determination unit 11 may determine the reproduction time length based on the required time and the ratio acquired for the user.
  • not all of the travel time is spent playing the playback content. According to this configuration, it is possible to provide the reproduced content having an appropriate reproduction time length for each user according to the daily usage mode of the user for the reproduced content. In particular, even if the users have the same travel distance, it is possible to provide the reproduced content having a different reproduction time length according to the usage mode of the user.
  • the editing device 3 selects a plurality of partially reproduced contents (partial moving images) from one or more reproduction candidate contents (original moving images) based on predetermined conditions.
  • Section 14 is provided, and the reproduced content may be edited / reproduced content (delivered moving image) in which a plurality of partially reproduced contents are combined.
  • the edited / reproduced content is considered to be a combination of a plurality of reproduction contents or a combination of a part of one reproduction content. Therefore, it is possible not only to provide the user with the edited / reproduced content having an appropriate reproduction time, but also to efficiently provide the edited / reproduced content that can be viewed by the user.
  • the selection processing unit 14 may select the partial reproduction content (partial moving image) from one reproduction candidate content (original moving image). For example, in the case of playback content whose playback time length is longer than the user's travel time, even one playback candidate content may not be appropriate to be provided to the user as it is. Further, even if the genre of the reproduced content is suitable for the user's request, it may be excluded from the reproduced content provided to the user due to the length of the reproduction time. However, according to this configuration, as the edited / reproduced content (delivered moving image), the reproduced content such as a digest version in which some of the reproduction candidate contents are connected to each other is provided. Therefore, even if the reproduced content has a long reproduction time, it can be provided to the user in an appropriate shape, and the user's satisfaction can be improved.
  • the selection processing unit 14 may select the partial reproduction content (partial moving image) from the plurality of reproduction candidate contents (original moving image).
  • edited / reproduced content live moving image
  • edited / reproduced content in which a plurality of reproduction candidate contents are partially connected is provided. Therefore, it is possible not only to provide the user with the edited / reproduced content having an appropriate reproduction time, but also to efficiently provide the edited / reproduced content that can be viewed by the user.
  • edit / playback content in which multiple playback candidate contents containing information on multiple songs are prepared and only songs according to the user's preference are combined, or It is possible to provide edited / reproduced contents in which only performance scenes are combined.
  • the edited / reproduced content is a combination of a plurality of partially reproduced contents selected from one reproduction candidate content (original video) in chronological order. May be done.
  • the edited reproduction content according to the intention of the reproduction candidate content is produced.
  • the reproduced content that has a reproduction time suitable for the user's viewing and does not impair the fun of the reproduced content, and can improve the user's satisfaction.
  • the order of the playback candidate contents does not have to be in chronological order as long as the playback candidate contents are combined in chronological order.
  • the predetermined condition may be a high priority.
  • the edited / reproduced content delivered video
  • the partial playback content partial video
  • the editing device 3 may include a user information acquisition unit 13 that acquires information for each user as information for determining the priority.
  • the partially reproduced content (partial moving image) according to the user's hobbies and tastes is selected and provided as the edited and reproduced content (delivered moving image). Therefore, it is possible to provide the optimum reproduced content to the user.
  • the user information acquisition unit 13 may acquire the priority based on the history of the reproduced content (delivered moving image or the like) reproduced by the user.
  • the partial playback content (partial moving image) is selected to reflect the latest user interests and the like. Therefore, even if the tendency of the same user's hobbies and tastes changes, it is possible to provide the reproduced content adapted to the change.
  • the editing device 3 includes a required time correction processing unit 12 that performs correction processing for the required time, and the time length determination unit 11 is based on the corrected correction required time.
  • the reproduction time length may be determined.
  • the playback time length is newly determined even if the required time such as the user's travel time changes. Therefore, even if a sudden event occurs, it is possible to provide the user with the reproduced content (delivered moving image) having an appropriate reproduction time based on the unexpected event.
  • the required time correction processing unit 12 may use the delay information of the transportation system in the correction processing. As a result, even if there is a delay in the transportation system used by the user, appropriate playback content (delivered video) is provided accordingly. Therefore, it is possible to provide appropriate reproduced content to the user, and also to provide reproduced content that eliminates or alleviates the user's dissatisfaction due to the delay in transportation.
  • the editing device 3 may include a transmission processing unit (distribution processing unit 16) for transmitting distribution information (distribution video data itself or playback position information). ..
  • a transmission processing unit distributed processing unit 16 for transmitting distribution information (distribution video data itself or playback position information). ..
  • the reproduced content may be a moving image content.
  • moving image content having an optimum playback time is provided. Therefore, it is possible to provide appropriate reproduced content to a user who prefers moving image content.
  • the information processing method of the present technology is an information processing method in which an information processing apparatus executes a determination process for determining the reproduction time length of the reproduction content provided to the user based on the position information about the user.
  • the program of the present technology is a program readable by a computer device that realizes a determination function for determining the playback time length of the playback content provided to the user based on the position information about the user.
  • An information processing device including a time length determination unit that determines the reproduction time length of the reproduction content provided to the user based on the position information about the user.
  • the location information is location information of terminal information possessed by the user.
  • the information processing apparatus according to any one of (1) to (2) above, comprising a distribution information generation unit that generates distribution information for reproducing the reproduced content based on the reproduction time length.
  • the location information includes the current location information and the target location information of the user.
  • the time length determination unit determines the reproduction time length based on the time required for the user to reach the target position based on the target position information from the current position based on the current position information.
  • the user information acquisition unit for acquiring the ratio of the length of time for playing the reproduced content and the length of time for not playing the played content while the user is moving is provided.
  • the information processing apparatus according to (4) above, wherein the time length determining unit determines the reproduction time length based on the required time and the ratio acquired for the user.
  • It is equipped with a selection processing unit that selects a plurality of partially reproduced contents based on predetermined conditions from one or more reproduction candidate contents.
  • the information processing device according to any one of (3) to (5) above, wherein the reproduced content is an edited / reproduced content obtained by combining the plurality of partially reproduced contents.
  • the information processing device according to (6) above, wherein the selection processing unit makes the selection from one reproduction candidate content.
  • the information processing device makes the selection from a plurality of reproduction candidate contents.
  • the selection processing unit makes the selection from a plurality of reproduction candidate contents.
  • the edited / reproduced content is a combination of a plurality of partially reproduced contents selected from one reproduction candidate content in chronological order.
  • the predetermined condition is a high priority.
  • the information processing apparatus which includes a user information acquisition unit that acquires information for each user as information for determining the priority.
  • the user information acquisition unit acquires the priority based on the history of the reproduced content reproduced by the user.
  • the information processing apparatus determines the reproduction time length based on the corrected correction required time.
  • the required time correction processing unit uses delay information of transportation in the correction processing.
  • the information processing apparatus according to any one of (3) to (14) above, which includes a transmission processing unit for transmitting the distribution information.
  • the reproduced content is a moving image content.
  • An information processing method in which an information processing apparatus executes a determination process for determining the reproduction time length of the reproduction content provided to the user based on the position information about the user.
  • a program readable by a computer device that enables a computer device to perform a determination function of determining the playback time length of the playback content provided to the user based on the position information about the user.

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

情報処理装置は、ユーザについての位置情報に基づいてユーザに提供する再生コンテンツの再生時間長を決定する時間長決定部を備えるものとした。ユーザの位置情報に応じて再生時間長を決定することにより、ユーザの視聴に適した再生コンテンツの生成を支援することができる。

Description

情報処理装置、情報処理方法、プログラム
 本技術は情報処理装置、情報処理方法、プログラムに関し、特にユーザに提供する再生コンテンツについての処理を行う情報処理装置についての技術に関する。
 通信回線の発達に伴って各種の動画像データの配信サービスが提供されている。例えば、試合の開始から終了までを撮影した動画像データをリアルタイムで配信するサービスなどである。また、試合時間に視聴できないユーザや試合を通しで視聴する時間が確保できないユーザに対して、再生時間長が短くなるように編集した編集動画像データの配信を行うサービスなどもある。
 編集動画像データは、元の動画像データを所定条件に基づいて編集することにより生成される。動画像データの編集としては、例えば、下記特許文献1のように、ダイジェストシーン(ハイライトシーン)を抽出する技術が知られている。
特開2014-35783号公報
 ところが、このような編集動画像データは視聴するユーザによらず同一の編集処理によって生成されており、ユーザごとの要望を反映させることが難しかった。
 本技術は、このような事情に鑑みて為されたものであり、ユーザに応じた適切な編集動画像データの生成を支援すること目的とする。
 本技術に係る情報処理装置は、ユーザについての位置情報に基づいて前記ユーザに提供する再生コンテンツの再生時間長を決定する時間長決定部を備えるものである。
 位置情報が異なれば、ユーザが視聴する動画や音楽などの再生コンテンツの再生時間の最適な時間長は異なる場合がある。
 上記した情報処理装置において、前記位置情報は前記ユーザが所持している端末情報の位置情報とされていてもよい。
 これにより、実際のユーザ位置を特定することが可能となる。
 上記した情報処理装置においては、前記再生時間長に基づいた前記再生コンテンツを再生させるための配信情報を生成する配信情報生成部を備えていてもよい。
 再生コンテンツは位置情報に応じて適切な長さとされる。
 上記した情報処理装置において、前記位置情報は前記ユーザの現在位置情報と目的位置情報とを含み、前記時間長決定部は前記現在位置情報に基づく現在位置から前記目的位置情報に基づく目的位置に前記ユーザが到達するまでに要する所要時間に基づいて前記再生時間長の決定を行ってもよい。
 これにより、ユーザの移動時間に応じた再生時間長の再生コンテンツが提供される。
 上記した情報処理装置においては、前記ユーザが移動中において前記再生コンテンツの再生を行う時間の長さと前記再生コンテンツの再生を行わない時間の長さの比率を取得するユーザ情報取得部を備え、前記時間長決定部は前記所要時間と前記ユーザについて取得した前記比率に基づいて前記再生時間長の決定を行ってもよい。
 ユーザよっては、移動時間のすべてを再生コンテンツの再生に費やすとは限らない。
 上記した情報処理装置においては、一または複数の再生候補コンテンツから所定条件に基づいて複数の部分再生コンテンツを選択する選択処理部を備え、前記再生コンテンツは前記複数の部分再生コンテンツを結合させた編集再生コンテンツとされてもよい。
 これにより、編集再生コンテンツは、複数の再生コンテンツをつなぎ合わせたものや一つの再生コンテンツの一部同士をつなぎ合わせたものとされる。
 上記した情報処理装置における前記選択処理部は一つの再生候補コンテンツから前記選択を行ってもよい。
 例えば、再生時間長がユーザの移動時間よりも長い再生コンテンツの場合は、そもそも一つの再生候補コンテンツであってもそのままユーザに提供するには適切でない場合がある。また、再生コンテンツのジャンルがユーザの要望に適したものであっても、再生時間長の長さによりユーザに提供される再生コンテンツから除外される場合がある。しかし、本構成によれば、編集再生コンテンツとして、このような再生候補コンテンツの一部同士をつなぎ合わせたダイジェスト版のような再生コンテンツが提供される。
 上記した情報処理装置における前記選択処理部は複数の再生候補コンテンツから前記選択を行ってもよい。
 これにより、複数の再生候補コンテンツを部分的につなぎ合わせた編集再生コンテンツが提供される。
 上記した情報処理装置において、前記編集再生コンテンツは、一つの再生候補コンテンツから選択された複数の部分再生コンテンツを時系列順に結合したものとされてもよい。
 これにより、時系列に沿って再生されることに意味がある再生候補コンテンツに対して、ユーザの要望に沿った部分のみを結合させるだけでなく、再生候補コンテンツの意図に沿った編集再生コンテンツが提供される。
 上記した情報処理装置において、前記所定条件は優先度の高さとされてもよい。
 これにより、単にユーザの移動時間などに合わせた再生時間長となるような編集再生コンテンツが提供されるだけでなく、より重要なシーンなどの部分再生コンテンツが優先的に選択されて編集再生コンテンツとして提供される。
 上記した情報処理装置においては、前記優先度を決定するための情報として前記ユーザごとの情報を取得するユーザ情報取得部を備えていてもよい。
 これにより、ユーザの趣味嗜好などに応じた部分再生コンテンツが選択されて編集再生コンテンツとして提供される。
 上記した情報処理装置における前記ユーザ情報取得部は前記ユーザが再生した再生コンテンツの履歴に基づいて前記優先度を取得してもよい。
 これにより、最新のユーザの興味などを反映して部分再生コンテンツが選択される。
 上記した情報処理装置においては、前記所要時間の補正処理を行う所要時間補正処理部を備え、前記時間長決定部は前記補正された補正所要時間に基づいて前記再生時間長の決定を行ってもよい。
 これにより、ユーザの移動時間などの所要時間に変化が起きたとしても新たに再生時間長が決定される。
 上記した情報処理装置における前記所要時間補正処理部は前記補正処理において交通機関の遅延情報を用いてもよい。
 これにより、ユーザが利用している交通機関に遅延が発生したとしても、それに応じた適切な再生コンテンツが提供される。
 上記した情報処理装置においては、前記配信情報を送信する送信処理部を備えていてもよい。
 送信処理部を備えることにより、一つの情報処理装置を用いて再生コンテンツを再生させるための情報を送信することができる。
 上記した情報処理装置において、前記再生コンテンツは動画像コンテンツとされてもよい。
 これにより、最適な再生時間長とされた動画像コンテンツが提供される。
 本技術に係る情報処理方法は、ユーザについての位置情報に基づいて前記ユーザに提供する再生コンテンツの再生時間長を決定する決定処理を情報処理装置が実行する情報処理方法である。
 本技術に係るプログラムは、ユーザについての位置情報に基づいて前記ユーザに提供する再生コンテンツの再生時間長を決定する決定機能を前記コンピュータ装置に実現させるコンピュータ装置が読み取り可能なプログラムである。
実施の形態の情報処理システムの構成例を示す図である。 コンピュータ装置のハードウェア構成を示す図である。 編集装置の機能ブロック図である。 ユーザの日常的な位置情報の変化を示す図である。 動画の解析を行うソフトウェアの一画面を示す図である。 優先度情報付与処理の第1例を説明するための図である。 優先度情報付与処理の第1例を説明するための図である。 優先度情報付与処理の第2例を説明するための図である。 優先度情報付与処理の第2例を説明するための図である。 動画登録についての処理についてのフローチャートである。 ユーザ情報取得のための処理の流れを示す図である。 配信動画を配信するための処理の流れを示す図である。
 以下、実施の形態を次の順序で説明する。
<1.システム構成>
<2.コンピュータ装置のハードウェア構成>
<3.具体的な処理内容>
<3-1.再生時間長算出処理>
<3-2.動画解析処理>
<3-3.優先度情報付与処理の第1例>
<3-4.優先度情報付与処理の第2例>
<3-5.ユーザ情報取得処理>
<4.処理フロー>
<4-1.動画登録についての処理>
<4-2.ユーザ情報取得のための処理>
<4-3.配信動画を配信するための処理>
<5.その他>
<6.まとめ>
<7.本技術>
<1.システム構成>
 本実施の形態では、ユーザ(動画を視聴する人物)に応じた編集動画像データを生成するための各種処理を行う情報処理装置を含む情報処理システムについて説明する。
 なお、以降の説明においては、ユーザに視聴させるために動画像データや編集した動画像データ(ダイジェスト(ハイライト)映像のデータなど)を「配信動画」と記載する。「配信動画」には未編集の動画像データであるライブ映像などが含まれてもよい。
 情報処理システムとしての動画提供システム1は、図1に示すように、動画データの管理を行う動画サーバ装置2と、情報処理装置としての編集装置3と、動画配信の対象のユーザが使用する1または複数のユーザ端末4と、それらの各情報処理装置を接続する通信ネットワーク5と、を備えている。
 動画サーバ装置2は、外部の情報処理装置や撮像装置などからアップロードされる動画像データを受信し管理する。そのために、動画サーバ装置2は動画DB(Database)2aを管理する。
 編集装置3は、ユーザ端末4から動画配信要求を受信する処理や、該要求に応じて動画を編集する処理や、配信動画をユーザ端末4に送信する処理などを行う。そのために、編集装置3は動画サーバ装置2を介して動画DB2aから動画を取得する。
 編集装置3は、配信動画を生成するために、取得した動画の解析処理を行う。動画の解析結果は、編集装置3が管理する解析DB3aに記憶される。
 編集装置3は、ユーザ端末4を利用しているユーザを特定し、ユーザごとに異なる配信動画を生成する。そのために、編集装置3は、ユーザの個人情報(以降、単に「ユーザ情報」と記載)が記憶されたユーザDB3bを管理する。
 編集装置3が生成する配信動画は、編集前の動画とは物理的に別個のデータとされていてもよいし、編集前の動画における再生箇所を指定するデータ(1または複数のイン点及びアウト点の時間情報)とされていてもよい。前者であれば、容量の小さな動画データをユーザ端末4に送信することによりユーザ端末4で動画の所定箇所が再生されるようにしてもよいし、後者であれば、編集前の動画における一部分(部分動画)がユーザ端末4で再生されるようにしてもよい。このような再生方法は、例えば、HTML(Hypertext Markup Language)のメディアフラグメント機能を利用してもよい。
 ユーザ端末4は、編集装置3に対してユーザ情報の送信を行う。ユーザ情報は、ユーザ自身が入力した情報とされてもよいし、ユーザ端末4の処理により自動的に送信される情報とされてもよい。
 また、ユーザは、ユーザ端末4を介してユーザの位置情報を編集装置3に送信する。ユーザの位置情報は、ユーザによって入力された情報であってもよいし、全球測位衛星システム(GNSS:Global Navigation Satellite System)が備える複数の測位衛星から発信される測位信号を受信したユーザ端末4が算出する情報であってもよい。
 ユーザ端末4は、編集装置3から受信された情報に基づいて配信動画の再生を行う。配信動画は、ユーザごとに適した編集がなされたものである。例えば、ユーザが好みのシーンのみを繋ぎ合わせた配信動画や、ユーザの行動時間に沿った適切な再生時間長とされた配信動画などである。
 通信ネットワーク5の構成は各種考えられる。例えば、インターネット、イントラネット、エキストラネット、LAN(Local Area Network)、CATV(Community Antenna TeleVision)通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網などが通信ネットワーク5として想定される。
 また、通信ネットワーク5の全部又は一部を構成する伝送媒体についても多様な例が想定される。例えばIEEE(Institute of Electrical and Electronics Engineers)1394、USB(Universal Serial Bus)、電力線搬送、電話線などの有線でも、IrDA(Infrared Data Association)のような赤外線、ブルートゥース(登録商標)、802.11無線、携帯電話網、衛星回線、地上波デジタル網などの無線でも利用可能である。
 また、ユーザ端末4において動画サーバ装置2が管理している配信動画を再生する場合には、CDN(Content Delivery Network)が用いられてもよい。
 動画提供システム1は、通信ネットワーク5を介して上述の動画サーバ装置2、編集装置3及びユーザ端末4などを備えることにより、ユーザ端末4に対して配信動画の提供を行うことが可能とされる。
<2.コンピュータ装置のハードウェア構成>
 動画提供システム1が備える動画サーバ装置2、編集装置3、ユーザ端末4、各種のDBのハードウェア構成について図2を参照して説明する。なお、各情報処理装置が以下に示す全ての構成を備えている必要はなく、一部のみを備えていてもよい。
 情報処理装置のCPU71は、ROM72や例えばEEP-ROM(Electrically Erasable Programmable Read-Only Memory)などの不揮発性メモリ部74に記憶されているプログラム、または記憶部79からRAM73にロードされたプログラムに従って各種の処理を実行する。RAM73にはまた、CPU71が各種の処理を実行する上において必要なデータなども適宜記憶される。
 CPU71、ROM72、RAM73、不揮発性メモリ部74は、バス83を介して相互に接続されている。このバス83にはまた、入出力インタフェース75も接続されている。
 入出力インタフェース75には、操作子や操作デバイスよりなる入力部76が接続される。
 例えば入力部76としては、キーボード、マウス、キー、ダイヤル、タッチパネル、タッチパッド、リモートコントローラ等の各種の操作子や操作デバイスが想定される。
 入力部76によりユーザの操作が検知され、入力された操作に応じた信号はCPU71によって解釈される。
 また入出力インタフェース75には、LCD或いは有機ELパネルなどよりなる表示部77や、スピーカなどよりなる音声出力部78が一体又は別体として接続される。
 表示部77は各種表示を行う表示部であり、例えばコンピュータ装置の筐体に設けられるディスプレイデバイスや、コンピュータ装置に接続される別体のディスプレイデバイス等により構成される。
 表示部77は、CPU71の指示に基づいて表示画面上に各種の画像処理のための画像や処理対象の動画等の表示を実行する。また表示部77はCPU71の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を行う。
 入出力インタフェース75には、ハードディスクや固体メモリなどより構成される記憶部79や、モデムなどより構成される通信部80が接続される場合もある。
 通信部80は、インターネット等の伝送路を介しての通信処理や、各種機器との有線/無線通信、バス通信などによる通信を行う。
 入出力インタフェース75にはまた、必要に応じてドライブ81が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記憶媒体82が適宜装着される。
 ドライブ81により、リムーバブル記憶媒体82からは画像ファイル等のデータファイルや、各種のコンピュータプログラムなどを読み出すことができる。読み出されたデータファイルは記憶部79に記憶されたり、データファイルに含まれる画像や音声が表示部77や音声出力部78で出力されたりする。またリムーバブル記憶媒体82から読み出されたコンピュータプログラム等は必要に応じて記憶部79にインストールされる。
 このコンピュータ装置では、例えば本実施の形態の処理のためのソフトウェアを、通信部80によるネットワーク通信やリムーバブル記憶媒体82を介してインストールすることができる。或いは当該ソフトウェアは予めROM72や記憶部79等に記憶されていてもよい。
 CPU71が各種のプログラムに基づいて処理動作を行うことで、動画サーバ装置2、編集装置3、ユーザ端末4、各種のDBとしての必要な情報処理や通信処理が実行される。
 なお、動画サーバ装置2、編集装置3、ユーザ端末4、各種のDBを構成する情報処理装置は、図2のようなコンピュータ装置が単一で構成されることに限らず、複数のコンピュータ装置がシステム化されて構成されてもよい。複数のコンピュータ装置は、LAN等によりシステム化されていてもよいし、インターネット等を利用したVPN等により遠隔地に配置されたものでもよい。複数の情報処理装置には、クラウドコンピューティングサービスによって利用可能なサーバ群(クラウド)としての情報処理装置が含まれてもよい。
 例えば、編集装置3のCPU71がプログラムに基づいて動作することで、編集装置3のCPU71は図3に示す位置情報取得部10、時間長決定部11、所要時間補正処理部12、ユーザ情報取得部13、選択処理部14、配信情報生成部15、配信処理部16、解析処理部17などとして機能する。
 位置情報取得部10は、ユーザの現在位置の情報を取得する処理を実行する。ユーザの位置情報は、上述したように、ユーザによって入力されてもよいし、ユーザが所持するユーザ端末4から取得してもよい。
 また、位置情報取得部10は、ユーザの現在位置の情報だけでなく、ユーザの目的位置の情報を取得してもよい。
 時間長決定部11は、ユーザに配信する配信動画の時間長(再生時間長)を決定する処理を行う。ここで決定する時間長は、ユーザに配信する一つの配信動画の再生時間長であってもよいし、ユーザに複数の配信動画を配信する際の総再生時間長であってもよい。即ち、ユーザが動画などの再生コンテンツの視聴に費やすことができる時間の長さを決定する。
 時間長決定部11は、再生時間長を決定する際にユーザの位置情報を利用する。具体的には、ユーザの現在位置情報と目的位置情報と移動手段情報などに基づいてユーザが移動に掛かる所要時間を推定する。そして、時間長決定部11は推定したユーザの所要時間に応じて再生時間長を決定する。
 なお、時間長決定部11は、推定した所要時間と同じ時間長となるように再生時間長を決定してもよいし、所要時間よりも短くなるように再生時間長を決定してもよい。
 所要時間よりも短くなるように再生時間長を決定する場合には、ユーザの行動履歴情報を用いてもよい。例えば、ユーザが地点Aと地点Bを日々往復している場合において、一方の地点を自宅と推定し、他方の地点を勤務先として推定することにより、地点Aと地点Bの移動に用いる移動手段を推定する。推定した移動時間には、配信動画の視聴に適切でない時間も含まれる可能性がある。これらの情報に基づいて、配信動画を視聴可能な時間を算出し、再生時間長を決定してもよい。
 或いは、所要時間において配信動画の視聴に割く時間の割合を算出し、これに基づいて再生時間長を決定してもよい。
 なお、地点A及び地点Bはユーザが日常的に往復している地点であれば自宅と勤務先以外であってもよい。例えば、自宅と誰かの家であってもよいし、自宅と学校であってもよい。また、地点A及び地点Bの2地点を往復する場合に限らず、地点A、地点B、地点C、地点B、地点Aのように三つ以上の地点を行き来している場合であってもよい。
 所要時間補正処理部12は、ユーザの所要時間を補正する処理を行う。具体的には、所要時間補正処理部12は、交通機関の遅延情報や渋滞情報など、所要時間が変動する情報を取得し、それに応じて所要時間を補正する処理を行う。補正された所要時間は、補正所要時間とされる。
 また、ユーザが当初と異なる移動手段を用いたことにより所要時間が短くなる場合などについても補正処理を行う。
 ユーザ情報取得部13は、ユーザに提供する配信動画を生成(決定)するためのユーザに関する情報を取得する。例えば、ユーザの好みのスポーツや好きな音楽のジャンルや好きな芸能人の名前など、趣味嗜好に関する情報である。また、同じ野球好きのユーザであっても、あるユーザはホームランのシーンや点数の取り合いとなる試合が好みとされ、他のあるユーザは野手がボールを好捕したシーンや投手戦となる試合が好みとされるなど、趣味嗜好が細かく異なる場合がある。ユーザ情報取得部13は、このような趣味嗜好の違いの情報などを取得する。
 更に、ユーザ情報取得部13は、好みの視聴スタイルなどの情報を取得してもよい。例えば、配信動画を視聴可能な時間として30分が与えられた場合であっても、30分で一つの配信動画を視聴するユーザもいれば、数分の短い配信動画を複数視聴するユーザもいる。ユーザ情報取得部13このような好みの違いの情報について取得してもよい。
 他にも、配信動画を視聴可能な時間すべてを動画の視聴に費やすユーザと半分くらいを視聴に費やすユーザがいるように、ユーザ情報取得部13は視聴可能時間における視聴時間の割合の情報などを取得してもよい。
 ユーザ情報取得部13が取得するユーザ情報には、前述したように、再生時間長を決定するためのユーザの行動履歴情報の取得も含まれる。また、ユーザの位置情報を定期的に取得し、その履歴に基づいてユーザの行動パターンを推定する処理を行ってもよい。
 選択処理部14は、ユーザへ配信する候補の動画である配信候補動画の中から、ユーザ情報取得部13が取得したユーザについての趣味嗜好の情報に基づいて、配信動画についての情報を選択する処理を行う。
 例えば、配信候補動画として、動画A、動画B、動画Cがある場合に、選択処理部14は、あるユーザに対しては動画A及び動画Bを選択し、他のあるユーザに対しては動画Aと動画Cを選択する。
 また、動画Aには注目すべきシーンとしてシーンA1と,シーンA2が含まれ、動画Bには注目すべきシーンとしてシーンB1,シーンB2,シーンB3が含まれ、動画Cには注目すべきシーンとしてシーンC1,シーンC2が含まれているとする。
 選択処理部14は、取得したユーザの趣味嗜好の情報に基づいて、あるユーザに対しては、シーンA1,シーンA2,シーンB1,シーンC1が含まれるようにそれぞれの部分動画を選択し、他のあるユーザに対してはシーンB1,シーンB2,シーンC1,シーンC2が含まれるようにそれぞれの部分動画を選択する。
 選択処理部14は、これらの選択処理において優先度情報を用いてもよい。優先度情報は、後述する解析処理部17によってシーンの種別に応じて付与される。例えば、試合展開を理解するために必要となるシーンについては優先度が高く設定される。
 すなわち、選択処理部14は、優先度とユーザの趣味嗜好の情報に基づいて、適切な再生時間長となるように複数の部分動画から適切な部分動画を選択する。
 優先度情報は、例えば、ユーザ情報取得部13によって取得されたユーザ情報に基づいて決定される。
 配信情報生成部15は、選択処理部14が選択した部分動画をつなぎ合わせて一つの配信動画(再生コンテンツ)を生成する処理を行う。この処理では、上述したように、物理的に別の動画像データとされた配信動画を配信情報として生成してもよいし、元の動画における再生箇所を指定する情報(イン点及びアウト点の時間情報)を配信情報として生成してもよい。以降の説明においては、再生箇所を指定する情報を「再生位置情報」と記載する。
 配信処理部16は、配信情報生成部15が生成した配信動画や配信動画の再生箇所を指定する時間情報を配信情報としてユーザ端末4に送信する処理を行う。
 解析処理部17は動画の解析処理を行う。動画の解析処理は、例えば、各種のAI( Artificial Intelligence)エンジンを利用することにより行ってもよい。
 AIエンジンとしては、例えば、画像解析エンジンや、音声解析エンジン、カメラワーク解析エンジンなどが挙げられる。また、画像解析エンジンとしては、どのようなシーンかを解析するシーン解析エンジンや、人物が映る領域を特定する人物解析エンジンや、被写体が何であるかを特定する物体解析エンジンや、写り込んだ文字や重畳された文字情報を取得する文字列解析エンジンや、被写体の骨格情報を取得する骨格解析エンジンや、被写体の顔の表情を解析する表情解析エンジンや、映っている人物が誰であるかを特定する個人特定エンジンや、被写体の背番号を特定する背番号解析エンジンなど、各種のものが考えられる。
 同様に、音声解析エンジンとしては、例えば、歓声の大きさなどを解析する歓声解析エンジンや、会話に使用されている言語を特定する言語解析エンジンや、会話内容を解析する会話解析エンジンや、盛り上がり度合いを検出する盛り上がり解析エンジンなどが考えられる。
 カメラワーク解析エンジンとしては、例えば、ズームアップ解析エンジンやズームアウト解析エンジンやパンチルト解析エンジンなどが考えられる。
 これらの解析エンジンは一例であり、それ以外のAIエンジンを用いてもよいし、AIを利用しない解析エンジンを用いてもよい。
 解析処理部17は、解析処理によって、動画に映っている人物やシーンの種別やシーンの切り替わりタイミングなどを解析し、それぞれ部分動画に分解する。また、シーン種別や映っている人物など解析結果を示すタグ情報を部分動画に付与する。
 解析処理部17は、部分動画ごとに優先度などの指標値を付与する。優先度は、例えば、試合展開に大きく動かしたシーンなどが含まれる部分動画ほど大きな値とされる。
 また、観客が歓声を上げたシーンなど、盛り上がったシーンほど優先度が大きくされてもよい。
 編集装置3は上述した処理以外にも、後述する機能を実現するための各種の処理を実行可能とされていてもよい。
<3.具体的な処理内容>
<3-1.再生時間長算出処理>
 配信動画の再生時間長を決定する処理の内容について具体的に説明する。
 先ず、編集装置3は、ユーザの日々の行動を特定する処理を実行する。具体的には、例えば一定時間ごとにユーザ端末4から位置情報を取得し、これに基づいてユーザの日常的な行動を推定する。
 あるユーザの日常的な位置情報の変化の例を図4に示す。
 図4に示すように、地点Aにおける平均の滞在時間が10時間とされ、地点Aから地点Bまでの移動に要する時間(所要時間)は1時間とされ、地点Bにおける平均の滞在時間が12時間とされ、地点Bから地点Aまでの平均の所要時間は1時間とされている。
 また、地点Aにおける配信動画の視聴時間は平均2時間とされ、地点Aから地点Bまでの所要時間における配信動画の視聴時間は平均30分とされ、地点Bから地点Aまでの所要時間における配信動画の視聴時間は平均30分とされ、地点Bにおける配信動画の視聴時間は平均0時間とされている。
 これらの情報から、滞在時間が長く配信動画を視聴していない地点Bは勤務先に分類されると推定し、滞在時間が長く配信動画を視聴している地点Aは自宅に分類されると推定する。
 なお、これらの推定には、滞在している時間帯情報を用いてもよい。例えば、朝から夕方にかけて滞在している地点を勤務先として推定し、夜から朝にかけて滞在している地点を自宅として推定してもよい。なお、これらの推定は、日勤や夜勤などユーザの勤務時間帯によって変わる可能性がある。
 また、視聴時間の平均時間については、平日のデータのみを用いて算出したものと休日や祝日のデータのみを用いて算出したものを分けて管理してもよい。
 ここで、編集装置3は、地点Aから地点Bへの所要時間である1時間を再生時間長として決定してもよい。ただし、ユーザの日々の行動履歴(移動履歴や視聴履歴)から、所要時間のすべてを配信動画の視聴に費やしているわけではないことが分かる。
 そこで、編集装置3は、所要時間に対する平均視聴時間の割合(0.5)を乗算して補正所要時間を算出し、再生時間長を決定してもよい。
 例えば、ユーザが地点Aに位置した状態であり、かつ、日常的にこれから1時間をかけて地点Bに移動することが推定できる場合には、所要時間に0.5を乗算した30分を再生時間長として決定し、後述の配信情報の生成処理を行ってもよい。
 或いは、地点Aから移動を開始してから30分が経過した時点でユーザによる配信動画の視聴の意図を検出した場合には、残りの移動時間である30分(1時間-30分)に0.5を乗算した15分を再生時間長として決定してもよい。これにより、再生動画に対するユーザの視聴態様に応じて再生時間長の決定が行われる。
 なお、上述した自宅や勤務先の推定はあくまで一例であり、これ以外の例も考えられる。例えば、一ヶ月など短期的に滞在している宿泊施設と勤務先(或いは学校などや親戚の家など)を推定してもよい。
 更に、地点A及び地点Bの二地点に限られることはなく、地点Cや地点Dなどを含む三つ以上の地点を考慮してもよい。
 例えば、地点A(自宅)と地点B(勤務先)と地点B(勤務先)から定期的に訪れる地点C(訪問先の会社)を考慮してもよいし、帰宅途中に寄る地点D(買い物のための商店や習い事を受けるための教室)などを考慮してもよい。
 なお、これらの地点A~地点Dをどのように移動するかについても各種考えられる。例えば、地点A(自宅)、地点B(勤務先)、地点A(自宅)のように2地点間を移動する日もあれば、地点A(自宅)、地点B(勤務先)、地点C(訪問先の会社)、地点A(自宅)のように、訪問先の会社から自宅へ直帰する日もある。
 このような移動経路の態様は、その日の予定に合わせてユーザが手動で入力してもよいし、時間帯の情報を考慮して自動的に推定してもよいし、ユーザの位置情報からユーザがいるホームやバス停を推定して行き先などを推定してもよい。
 そして、推定した移動経路や入力された移動経路に応じてそれぞれの地点間における再生時間長の推定を行う。
<3-2.動画解析処理>
 編集装置3は、動画サーバ装置2が管理する動画の解析処理を行う。
 本例では、卓球の試合を撮影した動画像データに関する解析処理について説明する。なお、解析処理の解析内容は上述したように各種考えられるが、ここでは、盛り上がり解析とシーン解析と選手解析とスコア解析を行う例について説明する。
 図5は、動画の解析を行うソフトウェアの一画面を示した物である。ソフトウェアの画面を用いて説明を行う。
 画面には、解析対象の動画を表示する表示領域101と、動画の再生や停止や音量調節などのコントロールを行うコントロール領域102と、時間軸103と、動画のサムネイルが表示されるサムネイル表示部104と、解析結果としての盛り上がり度合いの変化をグラフで示す盛り上がりグラフ105と、盛り上がったシーンに付与されるタグの有無を示す盛り上がりタグ表示部106と、シーン解析結果としてラリーシーンであると判定されたシーンを示すラリーシーンタグ表示部107と、スコア解析結果を示すスコア表示部108とが設けられている。
 盛り上がりグラフ105には、縦軸が盛り上がり度合いとされ横軸が時間とされた盛り上がりグラフが表示される。
 また、盛り上がりタグ表示部106には、盛り上がりグラフにおいて閾値を超えた部分とその前後の時間帯を盛り上がりシーンとしてタグ付けした結果が表示される。
 盛り上がりシーンは、例えば、歓声の大きさや拍手の大きさなどを考慮してもよいし、カメラワークを考慮してもよいし、得点の変動などを考慮してもよい。また、盛り上がりシーンのイン点は、盛り上がりが大きくなる前の時点を指定してもよい。例えば、盛り上がりが大きくなったシーンの基点となるプレーが行われた時点(例えばサーブ開始時点)を盛り上がりシーンのイン点として特定してもよい。
 盛り上がりシーンのアウト点は、盛り上がり度合いの収まるタイミングやシーンが切り替わるタイミングなどを考慮して指定される。
 ラリーシーンタグ表示部107は、ラリーシーンとして特定された期間に付与されるタグが表示される。ラリーシーンは、一定時間いずれの選手の得点ともならずにボールの打ち合いが展開されたシーンであり、例えば、サーブから得点までの時間長が一定時間以上とされた場合にラリーシーンとして特定される。或いは、サーブから得点までに行われたラリーの回数が閾値以上である場合にラリーシーンとして特定してもよい。
 スコア表示部108には、スコアの変動履歴が表示される部分である。スコアの解析は、例えば、画像に重畳されたスコア表示に対する文字認識を行うことにより行ってもよいし、試合展開を示すテキスト情報を他の情報処理装置などから取得することにより行ってもよい。
 なお、ここでは、解析結果を表示することにより解析結果を確認できるような態様を説明したが、解析結果がGUIによって表示されずにテキストデータなどとして出力されるだけでもよい。
 編集装置3は、上述した各種の解析処理を行うことにより、元動画における一部の部分を部分動画として設定する。たとえば、図5に示す例では、盛り上がりタグが付与された期間が三つ存在する。これらの各期間(シーン)は、それぞれが後述の選択処理で選択され得る部分動画とされる。また、ラリーシーンについても、同様にタグが付与された部分それぞれが部分動画とされる。なお、部分動画が多すぎる場合には、ラリーシーンの中でもラリーが続いた時間が特に長いものを部分動画として設定してもよい。
<3-3.優先度情報付与処理の第1例>
 編集装置3は、ユーザの趣味嗜好情報などを考慮して部分動画ごとに優先度情報を付与する処理を行う。具体的に優先度情報付与処理の第1例について、図6及び図7を参照して説明する。
 図6は、一つの元動画に対してシーン種別(盛り上がりシーン、決定打シーン、選手A登場シーン、ラリーシーン)ごとの解析を行った結果を示した物である。即ち、図6は、元動画におけるどの時間帯がどのようなシーンであると解析されたかを示している。なお、図示はしていないが、卓球の試合であればシーン種別として「選手B登場シーン」も存在する。また、サッカーなど大人数で行われる競技であれば、選手ごとに「選手X登場シーン」が存在する。
 例えば、解析処理の結果、盛り上がりシーンとしてシーン20,21が設定されており、決定打シーンとしてシーン22,23が設定されており、選手A登場シーンとしてシーン24,25が設定されており、長いラリーシーンとしてシーン26,27が設定されている。
 それぞれのシーンには、例えば0~1.0まで0.1刻みで優先度スコアが付与されている。優先度スコアは、盛り上がりシーンであれば、より盛り上がったシーンほど高い数値とされ、決定打シーンであれば、より決定的な得点を奪ったシーンほど高い数値とされ、選手A登場シーンであれば、より長い時間選手Aが映ったシーンやよりズームアップされた選手Aが映ったシーンほど高い数値とされ、長いラリーシーンであれば、より長いラリーシーンであるほど高い数値とされる。
 この優先度スコアはまだユーザごとの好みを反映させたものではないため、「一般優先度スコア」と記載する。
 ユーザにはシーン種別ごとに好みがある。例えば、盛り上がりシーンが好みであるがラリーシーンは好みでないユーザや、その逆の趣味嗜好を有するユーザなどが存在する。
 そこで、シーン種別ごとにユーザ固有の係数(ユーザ係数)を用意する。ユーザ係数は、例えば、最小値が0とされ最大値が1.0とされている。
 あるユーザは、盛り上がりシーンと選手A登場シーンが好みであり、盛り上がりシーンのユーザ係数が0.9とされ、選手A登場シーンのユーザ係数が0.8とされている。
 一方、当該ユーザが決定打シーンとラリーシーンは好みでないため、決定打シーンのユーザ係数が0.2とされ、ラリーシーンのユーザ係数が0.3とされている。
 ここで、編集装置3は、一般優先度スコアにユーザごとの係数を乗算して得られる個人優先度スコアを算出する。具体例を図7に示す。
 図7は、上部にシーン種別ごとの解析結果である一般優先度スコアとユーザ係数を示し、下部に元動画における部分動画の時間位置と最終的な個人優先度スコアを示したものである。例えば、元動画におけるシーン24は選手A登場シーンについての解析の結果部分動画として設定されており、最終的な個人優先度スコアは、一般優先度スコア0.9にユーザ係数0.8を乗算して得られる0.72とされる。
 同様に、元動画におけるシーン26はラリーシーンの解析の結果部分動画として設定されており、最終的な個人優先度スコアは、一般優先度スコア0.5にユーザ係数0.3を乗算して得られる0.15とされる。
 このように、シーンごとに個人優先度スコア算出される。
 なお、シーン20とシーン22は、動画上は同じ動画の同じ時間帯のシーンである。即ち、このシーンは、決定打シーンであると共に盛り上がりシーンでもある。このようなシーン20(シーン22)についての最終的な個人優先度スコアの算出方法はいくつか考えられる。
 例えば、単純にシーン20の個人優先度スコアとシーン22の個人優先度スコアを加算してシーン20(シーン22)の最終的な個人優先度スコアとして0.88(0.8×0.9+0.8×0.2)を得てもよい。或いは、シーン20の個人優先度スコアとシーン22の個人優先度スコアの平均値を算出しシーン20(シーン22)の最終的な個人優先度スコアとして0.44を得てもよい。なお、図7は前者の例を示したものである。
 このようにして、編集装置3は、一つの元動画の各一部とされたシーンごとの最終的な個人優先度スコアを得る。そして、編集装置3は、最終的な個人優先度スコアに基づいてシーン(部分動画)を選択し、ユーザに適した再生時間長となるように配信動画を生成する。即ち、一つの元動画が再生時間長となるように編集されて配信動画として配信される。
 具体的に、図7に示す例においては、先ず最初に個人優先度スコアが0.88とされたシーン20(シーン22)の部分動画が選択され、シーン20の長さが再生時間長を超えていなければ、次に個人優先度スコアが0.72とされたシーン24の部分動画が選択される。両シーンの長さを足しても再生時間長に達していなければ、次にシーン21の部分動画が選択される。
 なお、個人優先度スコアの高い部分動画から順に選択していき、最後に選択した部分動画によって再生時間長を超えてしまった場合には、最後に選択した部分動画の選択を取りやめてもよいし、代わりにその次に個人優先度スコアが高い部分動画を選択しなおしてもよい。或いは、再生時間長を超えないように最後に選択した部分動画を再編集してもよい。また、最後に選択した部分動画の選択を単に取りやめるだけでもよい。また、再生時間長に対する超過時間が所定時間(例えば10秒など)未満の場合には、許容範囲に収まっていると判定して再生時間長が予定より少し超えてしまった配信動画を生成してもよい。
 なお、前述したように配信動画の生成は、元動画とは物理的に異なる動画ファイルを生成してもよいし、元動画における再生部分を指定するための時間情報である再生時間情報を生成してもよい。
 なお、スポーツなど時間の流れが重要な元動画から配信動画を生成する場合には、個人優先度スコアに基づいて選択された各部分動画を時系列順に並べることが重要である。即ち、試合の結果が分かるような部分動画を先頭(最初に再生される部分)に配置することなどは避けることが望ましい。
 但し、音楽のライブ映像などにおいては、曲順を変えても問題が無い場合がある。そのような場合には、個人優先度スコアが高い順に並べるなど、時系列順に並べることをしなくてもよい。
 本例では、シーン種別として四つの例(盛り上がりシーンなど)を挙げたが、それ以外にも各種考えられる。例えば、サッカーなどにおいて戦略的な観点から映像を見たいユーザがいることから、シーン種別として「引きのシーン」を設定し、引きのシーンであるほど優先度スコアが高くなるようにすることが考えられる。
 また、それ以外にも、個人技を見ることや臨場感を味わいたいユーザ向けに「寄りのシーン」のシーン種別や、解説者のコメントを楽しみたいユーザ向けに「会話有りシーン」のシーン種別や、ゴール付近の映像を楽しみたいユーザ向けに「ゴール付近のシーン」のシーン種別などが考えられる。
<3-4.優先度情報付与処理の第2例>
 次に優先度情報付与処理の第2例について説明する。
 1本の配信動画が複数の元動画から生成される場合がある。例えば、ユーザがある日に行われたスポーツの結果を示す配信動画を希望した場合に、その日行われた複数の試合の内容が分かるように配信動画を生成する場合がある。
 その場合には、先ず、試合ごとに、即ち一つの元動画ごとに図6及び図7に示した処理を行い、シーンごとの個人優先度スコアを算出する。
 なお、一つの試合を複数の撮像装置で撮影している場合がある。その場合には、撮像装置の台数分だけ元動画が存在することとなる。その場合においても、元動画ごとに図6及び図7に示した処理を行う。
 盛り上がりシーンが好みのユーザ(ユーザ係数0.9)に配信するために、チームAとチームBの試合を撮影した元動画V1と、チームCとチームDの試合を撮影した元動画V2それぞれに盛り上がりシーンについての優先度スコアの例を図8に示す。
 図示するように、元動画V1におけるシーン30,31,32がユーザに配信する配信動画として選択され得る部分動画として設定されている。また、元動画V2においては、シーン33,34,35が盛り上がりシーンとしての部分動画として設定されている。
 いずれのシーンも盛り上がりが検出されたシーンであるため、盛り上がりシーンがユーザの好みであることを考えると、元動画V2のシーンよりも元動画V1のシーンの方が選択されやすい。
 但し、ユーザには好みのチームがある場合がある。例えば、あるユーザは、チームAよりもチームBの方が好みのチームであり、更にチームBよりもチームCやチームDの方が好みのチームとされている。
 この場合には、一般優先度スコアにシーン種別ごとに付与される個人ごとのユーザ係数を乗算するだけで個人優先度スコアを算出するのではなく、試合についての付随情報に基づく追加係数を更に乗算することで個人優先度スコアを算出してもよい。ここで、追加係数は個人ごとに異なる係数とされていてもよい。
 付随情報とは、例えば、その試合がそのユーザにとって如何に重要なものであるか否か、換言すれば、如何に興味を引くものであるか否かを推定するための情報である。
 例えば、野球を例に挙げると、オープン戦の試合よりもレギュラーシーズンの試合の方が興味を引くことが考えられる。また、レギュラーシーズンの試合の中でも、優勝チームが決定した後の消化試合よりも優勝が決定する可能性がある試合の方がより興味が高いことが考えられる。或いは、チームに所属する選手の記録達成が掛かった試合などについても考慮する必要がある。
 このように、追加係数は、一般的な情報(優勝決定試合であるか否かの情報)と個人的な趣味嗜好の情報(記録の掛かった選手がユーザの好みの選手であるか否かの情報)の双方に基づくものとされてもよい。
 編集装置3は、試合についての付随情報に基づいてユーザがその試合にどの程度の興味を抱くか否かを追加係数として数値化する。追加係数は、例えば、0~1.0の数値とされる。
 追加係数を考慮して元動画V1及び元動画V2のシーンごとに個人優先度スコアを算出した状態を図9に示す。
 あるユーザにとっては、元動画V1よりも元動画V2の方が興味に合致した試合であるため、一般的な盛り上がり度合いは元動画V1の方が高いにも関わらず当該ユーザにとって選択すべきシーンが多いのは元動画V2とされる。
 このように、試合ごとの付随情報に基づいた追加係数を利用することで、ユーザに適したシーンが選択されやすくなる。即ち、編集装置3は、複数の元動画におけるシーンごとの最終的な個人優先度スコアを得る。そして、編集装置3は、最終的な個人優先度スコアに基づいてシーン(部分動画)を選択し、ユーザに適した再生時間長となるように配信動画を生成する。即ち、複数の元動画から再生時間長となるように編集された配信動画が生成されて配信される。
 なお、本例では、スポーツの試合を例に挙げたが、元動画のテーマがユーザの趣味嗜好にどの程度合っているかを示す数値として追加係数が設定されていれば、どのような分野の動画であっても対応することができる。
 また、ユーザに提供する配信動画がスポーツだけでなく様々なジャンルを含めた総合ニュースの動画などである場合には、競技種別を考慮して追加係数を設定してもよいし、ニュースのジャンル(スポーツ、芸能、国際、国内など)に応じて追加係数を設定してもよい。
 更に追加係数は一つではなく、複数設定されてもよい。例えば、競技種別に応じた追加係数とチームに応じた追加係数が別に設定されていてもよい。
 また、追加係数を用いなくてもよい。例えば、優先度情報付与処理の第1例で説明したユーザ固有のユーザ係数が競技種別やチームなど各種の情報に基づいて算出されたものであってもよい。具体的には、ユーザ係数が、ユーザの好みのシーンを示すだけの数値ではなく、試合の付随情報に基づくユーザの興味や、競技種別ごとのユーザの興味などを考慮して決定される数値であってもよい。
 なお、複数の元動画から一つの配信動画を生成する場合において、個人優先度スコアの高さのみを用いて選択すると、一つのシーンも選択されなかった元動画が生じてしまう可能性がある。これを避けるためには、例えば、元動画ごとに最も個人優先度スコアの高い部分動画を最初に選択することが考えられる。そして、再生時間長に足らない時間分だけ全ての部分動画から個人優先度スコアの高い順に選択していく。
 これにより、各元動画から少なくとも一つの部分動画が選択される。このようにして生成された配信動画を視聴することにより、ユーザは、少なくとも元動画それぞれの情報を得ることが可能となる。
<3-5.ユーザ情報取得処理>
 編集装置3は、ユーザ情報として、上述したユーザの位置情報や趣味嗜好の情報などの各種の情報を取得する。これらの情報の取得には、各種の方法が用いられる。
(位置情報)
 ユーザの位置情報の取得方法としては、GNSSにおける測位信号を受信したユーザ端末4が算出した位置情報を受信する方法以外にも各種考えられる。
 一例として、ユーザ端末4が所定の位置範囲に位置した状態を検出する情報処理装置から取得することが考えられる。例えば、ユーザが電車に乗るためにユーザ端末4が備えるIC(Integrated Circuit)チップを改札システムに読み取らせる行動をした場合を考える。
 この場合には、改札システムやユーザ端末4がそのような行動を検出して編集装置3に情報を送信することにより、編集装置3は改札システムが配置された場所をユーザの現在位置として取得することができる。改札システムの代わりにビーコンシステムなどを用いても同様の情報を取得することが可能である。
 或いは、ユーザが買い物をしたことを検出して位置情報を取得してもよい。例えば、ユーザが実店舗において買い物をする際に電子マネーなどを利用した場合に、ユーザを特定可能とされる場合がある。また、ユーザが配信動画を視聴する際に、当該サービスを享受するためのログイン操作を行ったとする。この場合には、配信動画を視聴するユーザとその直前に実店舗での買い物を行ったユーザが同一であることを特定することが可能である。
 編集装置3は、ユーザが実店舗で買い物を行った時間帯と位置情報とその時点からの経過時間情報を取得し、ユーザの現在位置を推定してもよい。この場合には、ユーザの日常の行動履歴に基づいて推定することによりユーザの現在位置を適切に推定することが可能である。また、その際には、公共交通機関の運行情報を用いることにより、ユーザの現在位置を更に高精度に推定することができる。
 また、ユーザが配信動画を視聴するためのユーザ端末4以外に情報端末を所持していることが考えられる。そのような場合に、ユーザ端末4以外の情報端末から位置情報を取得してもよい。即ち、位置情報を取得する端末と配信動画の配信先となる端末が異なるものであってもよい。
(趣味嗜好の情報)
 ユーザの趣味嗜好の情報の取得方法としては、例えば、ユーザに入力させることが考えられる。具体的には、アンケートなどに対するユーザの入力情報を取得し、趣味嗜好を解析する。或いは、配信した配信動画をユーザが視聴した後に配信動画に対する評価情報を入力してもらい、その情報から趣味嗜好を解析してもよい。
 それ以外にも、例えば、ユーザの視聴履歴(再生履歴)から趣味嗜好を解析することが考えられる。例えば、ユーザに複数の配信動画を配信し、その中からユーザによって視聴された動画の傾向を分析し、趣味嗜好情報を抽出してもよい。
 また、ユーザは、配信された配信動画を視聴する際に、最初から最後までスキップせずに視聴するとは限らない。また、同じ個所を繰り返し再生する場合も考えられる。
 編集装置3は、配信動画においてユーザがスキップした箇所や何度も再生した箇所を解析して趣味嗜好情報を抽出してもよい。
 また、編集装置3は、ユーザに対して同じ試合の同じ時間帯の動画について、異なる撮像装置で撮影された異なる画角の動画を複数配信してもよい。そして、その中から好みの画角をユーザに選択させて視聴させることにより、ユーザの趣味嗜好情報を抽出してもよい。
<4.処理フロー>
 上述したような配信動画をユーザに配信するために編集装置3や動画提供システム1が実行する処理について説明する。
<4-1.動画登録についての処理>
 先ず、動画提供システム1の外部にある情報処理装置から動画の登録処理が実行される。この処理が実行されると、該情報処理装置から動画提供システム1の例えば動画サーバ装置2に対して、登録対象の動画像データが送信される。
 動画提供システム1が備える各情報処理装置(動画サーバ装置2や編集装置3など)のCPU71は、登録対象の動画像データに対して図10に示す各処理を行う。以下の説明においては、動画サーバ装置2や編集装置3のCPU71を単に「処理部」と記載する。
 処理部は、ステップS101において、登録対象の動画を動画DB2aに登録する処理を行う。なお、この際には、登録対象の動画像データが正常なファイルであるか否かをチェックする処理など、他の処理を合わせて実行してもよい。
 処理部は、ステップS102において、動画に対する解析処理を実行し、シーン種別ごとにシーンのイン点及びアウト点を決定する。即ち、各シーンがどこから始まりどこで終わるかを特定する。
 処理部は、ステップS103において、動画に対する解析処理を実行し、シーン種別ごとの一般優先度スコアを算出する。即ち、シーンごとに盛り上がり度合いの解析を行い、盛り上がりシーンについての一般優先度スコアを算出する処理や、ラリーシーンについての解析処理を行い、ラリーシーンについての一般優先度スコアを算出する処理などを行う。
 処理部は、ステップS104において、前段で算出したイン点やアウト点の情報、及び、一般優先度スコア情報を、メタデータとして解析対象の動画に紐づけて記憶する。
 これらの処理を実行することにより、ユーザが編集動画の配信を希望した際に、登録動画を編集した配信動画を配信することが可能となる。
 また、各処理は、動画提供システム1が備える各装置のいずれで実行してもよいが、一例として、ステップS101の処理を動画サーバ装置2のCPU71が実行し、ステップS102,ステップS103及びステップS104の各処理を編集装置3のCPU71が実行する。
<4-2.ユーザ情報取得のための処理>
 ユーザ情報を取得するために各情報処理装置が実行する処理について、図11を参照して説明する。なお、この処理では、ユーザが使用するユーザ端末4がステップS201及びステップS202の処理を実行し、動画提供システム1における例えば編集装置3のCPU71が処理部としてステップS301の処理を実行する。
 ユーザ端末4はステップS201において、動画の視聴履歴やユーザ端末4の位置情報の履歴や、検索履歴などを蓄積する。この処理は、ユーザが動画の視聴を行うタイミングや、ユーザ端末4を所持して移動したタイミングや、検索を行ったタイミングで適宜実行される。
 なお、ユーザが配信動画を視聴した際に、どのシーンを視聴してどのシーンを視聴せずにスキップしたかなどの情報を適宜取得してもよい。
 また、ステップS201における情報の蓄積処理は、動画提供システム1の処理部からの要求に応じて開始させてもよい。
 ユーザ端末4はステップS202において、蓄積された各情報をユーザ情報として動画提供システム1に送信する処理を実行する。この処理は、一度だけ実行されてもよいし、定期的に実行されてもよいし、動画提供システム1からの要求に応じて送信されてもよい。
 ユーザ端末4からユーザ情報を受信した動画提供システム1は、ステップS301において、当該ユーザ情報をユーザDB3bに記憶する処理を実行する。これにより、編集装置3はユーザDB3bに記憶されたユーザ情報に基づいて配信動画を生成する処理を実行することができる。
<4-3.配信動画を配信するための処理>
 ユーザがユーザ端末4において配信動画を視聴するために各情報処理装置が実行する処理について、図12を参照して説明する。
 ユーザ端末4は、ステップS401において、視聴したい動画を選択するユーザ操作を受け付ける。なお、ユーザが視聴したい動画を最終的に選択するまでに、動画提供システム1から動画のリストなどを取得するための処理がユーザ端末4及び編集装置3において実行されてもよい。
 ユーザ端末4は、ステップS402において、ユーザの位置情報を動画提供システム1に送信する処理を行う。
 ユーザ端末4から位置情報を受信した動画提供システム1は、ステップS501において、ユーザ情報をユーザDB3bから取得する処理を実行する。ここで取得するユーザ情報は、配信動画の再生時間長を決定するための情報とされ、例えば、ユーザの目的地を推定するための移動履歴の情報や、ユーザの視聴時間を推定するための視聴履歴の情報などである。
 続いて、動画提供システム1はステップS502において、ユーザ情報に基づいて配信動画の再生時間長を算出する。この処理では、動画提供システム1は、所要時間や補正所要時間を利用して再生時間長を算出する。
 動画提供システム1は、ステップS503において、ユーザ情報を取得する。ここで取得するユーザ情報は、配信動画を生成するための、例えば、元動画において選択された部分動画のイン点及びアウト点の時間情報(再生位置情報)を決定するための情報である。具体的には、ユーザの趣味嗜好の情報などを取得する。
 動画提供システム1は、ステップS504において、配信動画の生成を行う。この処理では、配信動画の動画像データを生成してもよいし、上述したように、再生位置情報(再生対象の部分動画のイン点及びアウト点の時間情報)を生成してもよい。ここでは、再生時間情報を生成する例について説明する。
 具体的には、部分動画の中から再生対象の部分動画を選択すると共に、選択された部分動画にメタ情報として紐づけられた再生位置情報(イン点とアウト点の時間情報)を取得する。
 動画提供システム1はステップS505において、取得した再生位置情報を動画配信要求のあったユーザ端末4に送信する。
 再生位置情報を受信したユーザ端末4は、ステップS403において、ユーザによる再生操作を受け付ける。
 ユーザによる再生操作を受け付けたユーザ端末4は、ステップS404において、再生位置情報に応じた部分動画の取得要求を動画提供システム1に送信する。なお、この要求は、動画サーバ装置2が受信する。
 部分動画の取得要求を受信した動画提供システム1は、ステップS506において、部分動画の配信処理を行う。
 このような配信処理を行うことにより、部分動画のデータをユーザ端末4に送信すればよく、元動画のデータすべてをユーザ端末4に送信する必要がないため、各情報処理装置の処理負担の軽減や通信帯域の有効利用に寄与することができる。
 なお、ステップS404及びステップS506の各処理は、部分動画が再生されるごとに実行される。即ち、最適な再生時間長となるように部分動画の集合体として編集された配信動画においては、配信動画に含まれる部分動画の数だけ部分動画の取得要求と部分動画の配信が実行される。
<5.その他>
 上述した例においては、編集装置3が位置情報取得部10、時間長決定部11、所要時間補正処理部12、ユーザ情報取得部13、選択処理部14、配信情報生成部15、配信処理部16、解析処理部17の各部を備える場合を説明した。
 ただし、それ以外の構成についても考えられる。例えば、上記した各部のうち、時間情報取得部と時間長決定部をユーザ端末4が備えていてもよい。この構成によれば、動画提供システム1の機能を利用するユーザ端末4が多数存在する場合に、サーバ装置である編集装置3の処理負担が軽減され、レスポンス速度の向上が図られ、ユーザにとっての利便性を向上させることができる。
<6.まとめ>
 上述した各例で説明したように、本技術の情報処理装置としての編集装置3は、ユーザについての位置情報に基づいてユーザに提供する再生コンテンツ(配信動画)の再生時間長を決定する時間長決定部11を備えたものである。
 位置情報が異なれば、ユーザが視聴する動画や音楽などの再生コンテンツの再生時間の最適な時間長は異なる場合がある。
 ユーザの位置情報に応じて再生時間長を決定することにより、ユーザの視聴に適した再生コンテンツの生成を支援することができる。特に、ユーザによらず一様に生成される再生コンテンツではなく、ユーザごとに異なる再生コンテンツを生成することができるため、ユーザの満足度を向上させることができる。
 動画提供システム1のシステム構成の説明において記載したように、位置情報はユーザが所持している端末情報(ユーザ端末4)の位置情報であってもよい。
 これにより、実際のユーザ位置を特定することが可能となる。
 従って、ユーザの実際の位置情報に基づいて再生時間長の決定を行うことができる。
 編集装置3の機能構成の説明において記載したように、編集装置3は、再生時間長に基づいた再生コンテンツ(配信動画)を再生させるための配信情報(例えば、イン点やアウト点の時間情報などの再生位置情報)を生成する配信情報生成部15を備えていてもよい。
 再生コンテンツは位置情報に応じて適切な長さとされる。
 従って、ユーザの位置情報に応じた適切な再生コンテンツを提供することができる。
 編集装置3の機能構成の説明において記載したように、位置情報はユーザの現在位置情報と目的位置情報とを含み、時間長決定部11は現在位置情報に基づく現在位置から目的位置情報に基づく目的位置にユーザが到達するまでに要する所要時間に基づいて再生時間長の決定を行ってもよい。
 これにより、ユーザの移動時間に応じた再生時間長の再生コンテンツが提供される。
 従って、ユーザにとって適切な再生コンテンツを提供することができる。特に、再生途中でユーザが目的地に到着してしまい再生を中断することなどを回避することができる。すなわち、満足度の低い再生コンテンツを提供してしまうことを回避することができる。
 再生時間長算出処理の説明で記載したように、編集装置3は、ユーザが移動中において再生コンテンツの再生を行う時間の長さと再生コンテンツの再生を行わない時間の長さの比率を取得するユーザ情報取得部13を備え、時間長決定部11は所要時間とユーザについて取得した比率に基づいて再生時間長の決定を行ってもよい。
 ユーザよっては、移動時間のすべてを再生コンテンツの再生に費やすとは限らない。
 本構成によれば、再生コンテンツに対するユーザの日常の利用態様に応じて、ユーザごとに適切な再生時間長とされた再生コンテンツを提供することができる。特に、移動距離が同じユーザであっても、ユーザの利用態様に応じて異なる再生時間長の再生コンテンツを提供することが可能となる。
 編集装置3の機能構成の説明において記載したように、編集装置3は、一または複数の再生候補コンテンツ(元動画)から所定条件に基づいて複数の部分再生コンテンツ(部分動画)を選択する選択処理部14を備え、再生コンテンツは複数の部分再生コンテンツを結合させた編集再生コンテンツ(配信動画)とされてもよい。
 これにより、編集再生コンテンツは、複数の再生コンテンツをつなぎ合わせたものや一つの再生コンテンツの一部同士をつなぎ合わせたものとされる。
 従って、ユーザに対して適切な再生時間長とされた編集再生コンテンツを提供するだけでなく、効率よくユーザが視聴可能な編集再生コンテンツを提供することができる。
 優先度情報付与処理の第1例で説明したように、選択処理部14は一つの再生候補コンテンツ(元動画)から部分再生コンテンツ(部分動画)の選択を行ってもよい。
 例えば、再生時間長がユーザの移動時間よりも長い再生コンテンツの場合は、そもそも一つの再生候補コンテンツであってもそのままユーザに提供するには適切でない場合がある。また、再生コンテンツのジャンルがユーザの要望に適したものであっても、再生時間長の長さによりユーザに提供される再生コンテンツから除外される場合がある。しかし、本構成によれば、編集再生コンテンツ(配信動画)として、このような再生候補コンテンツの一部同士をつなぎ合わせたダイジェスト版のような再生コンテンツが提供される。
 従って、再生時間長が長時間とされた再生コンテンツであっても、適切な形状でユーザに提供することが可能となり、ユーザの満足度向上を図ることができる。
 優先度情報付与処理の第2例で説明したように、選択処理部14は複数の再生候補コンテンツ(元動画)から部分再生コンテンツ(部分動画)の選択を行ってもよい。
 これにより、複数の再生候補コンテンツを部分的につなぎ合わせた編集再生コンテンツ(配信動画)が提供される。
 従って、ユーザに対して適切な再生時間長とされた編集再生コンテンツを提供するだけでなく、効率よくユーザが視聴可能な編集再生コンテンツを提供することができる。
 具体的には、例えば音楽の再生コンテンツであれば、複数曲の情報が含まれた再生候補コンテンツを複数用意し、その中からユーザの好みに応じた曲だけを結合させた編集再生コンテンツや、演奏シーンのみを結合させた編集再生コンテンツなどを提供することができる。また、例えば、サッカーの試合の動画コンテンツでは、複数試合の動画コンテンツから、ダイジェストとなる一部のシーンのみを結合させた編集再生コンテンツを提供することができ、ユーザの移動時間に合わせて効率よく視聴できる再生コンテンツであって、且つ、情報量の多い再生コンテンツをユーザに提供することができる。
 優先度情報付与処理の第1例で説明したように、編集再生コンテンツ(配信動画)は、一つの再生候補コンテンツ(元動画)から選択された複数の部分再生コンテンツを時系列順に結合したものとされてもよい。
 これにより、時系列に沿って再生されることに意味がある再生候補コンテンツに対して、ユーザの要望に沿った部分のみを結合させるだけでなく、再生候補コンテンツの意図に沿った編集再生コンテンツが提供される。
 従って、ユーザの視聴に適した再生時間長とされ、且つ、再生コンテンツの面白さを損なうことのない再生コンテンツをユーザに提供することができ、ユーザの満足度を向上させることができる。
 なお、複数の再生候補コンテンツから複数の部分再生コンテンツを選択する場合には、再生候補コンテンツごとに時系列順に結合されていれば、再生候補コンテンツ同士の順序は時系列順でなくてもよい。
 編集装置3の機能構成の説明において記載したように、所定条件は優先度の高さとされていてもよい。
 これにより、単にユーザの移動時間などに合わせた再生時間長となるような編集再生コンテンツ(配信動画)が提供されるだけでなく、より重要なシーンなどの部分再生コンテンツ(部分動画)が優先的に選択されて編集再生コンテンツとして提供される。
 従って、ユーザにとってより適切な再生コンテンツを提供することができる。
 編集装置3の機能構成の説明において記載したように、編集装置3は、優先度を決定するための情報としてユーザごとの情報を取得するユーザ情報取得部13を備えていてもよい。
 これにより、ユーザの趣味嗜好などに応じた部分再生コンテンツ(部分動画)が選択されて編集再生コンテンツ(配信動画)として提供される。
 従って、ユーザに最適な再生コンテンツの提供を行うことができる。
 ユーザ情報取得処理の説明において記載したように、ユーザ情報取得部13はユーザが再生した再生コンテンツ(配信動画など)の履歴に基づいて優先度を取得してもよい。
 これにより、最新のユーザの興味などを反映して部分再生コンテンツ(部分動画)が選択される。
 従って、同じユーザの趣味嗜好に傾向に変化が生じたとしても、該変化に適応した再生コンテンツの提供を行うことができる。
 編集装置3の機能構成の説明において記載したように、編集装置3は、所要時間の補正処理を行う所要時間補正処理部12を備え、時間長決定部11は補正された補正所要時間に基づいて再生時間長の決定を行ってもよい。
 これにより、ユーザの移動時間などの所要時間に変化が起きたとしても新たに再生時間長が決定される。
 従って、突発的な事象が発生したとしても、それに基づく適切な再生時間長とされた再生コンテンツ(配信動画)をユーザに提供することができる。
 編集装置3の機能構成の説明において記載したように、所要時間補正処理部12は補正処理において交通機関の遅延情報を用いてもよい。
 これにより、ユーザが利用している交通機関に遅延が発生したとしても、それに応じた適切な再生コンテンツ(配信動画)が提供される。
 従って、ユーザに対して適切な再生コンテンツを提供することができるとともに、交通機関の遅れに伴うユーザの不満を解消或いは緩和するような再生コンテンツを提供することができる。
 編集装置3の機能構成の説明において記載したように、編集装置3は、配信情報(配信動画のデータそのものや再生位置情報)を送信する送信処理部(配信処理部16)を備えていてもよい。
 送信処理部を備えることにより、一つの情報処理装置を用いて再生コンテンツ(配信動画)を再生させるための情報を送信することができる。
 従って、処理の効率化を図ることができる。
 動画提供システム1のシステム構成の説明において記載したように、再生コンテンツは動画像コンテンツとされていてもよい。
 これにより、最適な再生時間長とされた動画像コンテンツが提供される。
 従って、動画像コンテンツを好むユーザに対しても適切な再生コンテンツを提供することができる。
 本技術の情報処理方法は、ユーザについての位置情報に基づいてユーザに提供する再生コンテンツの再生時間長を決定する決定処理を情報処理装置が実行する情報処理方法である。
 本技術のプログラムは、ユーザについての位置情報に基づいてユーザに提供する再生コンテンツの再生時間長を決定する決定機能をコンピュータ装置に実現させるコンピュータ装置が読み取り可能なプログラムである。
 このような情報処理方法やプログラムにより、上述した各種の機能や処理を実現することができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 また、上述した各例は、組み合わせが不可能でない限りいかように組み合わせることも可能である。
<7.本技術>
(1)
 ユーザについての位置情報に基づいて前記ユーザに提供する再生コンテンツの再生時間長を決定する時間長決定部を備える
 情報処理装置。
(2)
 前記位置情報は前記ユーザが所持している端末情報の位置情報である
 上記(1)に記載の情報処理装置。
(3)
 前記再生時間長に基づいた前記再生コンテンツを再生させるための配信情報を生成する配信情報生成部を備えた
 上記(1)から上記(2)の何れかに記載の情報処理装置。
(4)
 前記位置情報は前記ユーザの現在位置情報と目的位置情報とを含み、
 前記時間長決定部は前記現在位置情報に基づく現在位置から前記目的位置情報に基づく目的位置に前記ユーザが到達するまでに要する所要時間に基づいて前記再生時間長の決定を行う
 上記(3)に記載の情報処理装置。
(5)
 前記ユーザが移動中において前記再生コンテンツの再生を行う時間の長さと前記再生コンテンツの再生を行わない時間の長さの比率を取得するユーザ情報取得部を備え、
 前記時間長決定部は前記所要時間と前記ユーザについて取得した前記比率に基づいて前記再生時間長の決定を行う
 上記(4)に記載の情報処理装置。
(6)
 一または複数の再生候補コンテンツから所定条件に基づいて複数の部分再生コンテンツを選択する選択処理部を備え、
 前記再生コンテンツは前記複数の部分再生コンテンツを結合させた編集再生コンテンツとされた
 上記(3)から上記(5)の何れかに記載の情報処理装置。
(7)
 前記選択処理部は一つの再生候補コンテンツから前記選択を行う
 上記(6)に記載の情報処理装置。
(8)
 前記選択処理部は複数の再生候補コンテンツから前記選択を行う
 上記(6)に記載の情報処理装置。
(9)
 前記編集再生コンテンツは、一つの再生候補コンテンツから選択された複数の部分再生コンテンツを時系列順に結合したものとされた
 上記(7)から上記(8)の何れかに記載の情報処理装置。
(10)
 前記所定条件は優先度の高さとされた
 上記(6)から上記(9)の何れかに記載の情報処理装置。
(11)
 前記優先度を決定するための情報として前記ユーザごとの情報を取得するユーザ情報取得部を備えた
 上記(10)に記載の情報処理装置。
(12)
 前記ユーザ情報取得部は前記ユーザが再生した再生コンテンツの履歴に基づいて前記優先度を取得する
 上記(11)に記載の情報処理装置。
(13)
 前記所要時間の補正処理を行う所要時間補正処理部を備え、
 前記時間長決定部は前記補正された補正所要時間に基づいて前記再生時間長の決定を行う
 上記(4)に記載の情報処理装置。
(14)
 前記所要時間補正処理部は前記補正処理において交通機関の遅延情報を用いる
 上記(13)に記載の情報処理装置。
(15)
 前記配信情報を送信する送信処理部を備えた
 上記(3)から上記(14)の何れかに記載の情報処理装置。
(16)
 前記再生コンテンツは動画像コンテンツとされた
 上記(3)から上記(14)の何れかに記載の情報処理装置。
(17)
 ユーザについての位置情報に基づいて前記ユーザに提供する再生コンテンツの再生時間長を決定する決定処理を
 情報処理装置が実行する情報処理方法。
(18)
 ユーザについての位置情報に基づいて前記ユーザに提供する再生コンテンツの再生時間長を決定する決定機能をコンピュータ装置に実現させる
 コンピュータ装置が読み取り可能なプログラム。
1 動画提供システム
3 編集装置
4 ユーザ端末
10 位置情報取得部
11 時間長決定部
12 所要時間補正処理部
13 ユーザ情報取得部
14 選択処理部
15 配信情報生成部
16 配信処理部

Claims (18)

  1.  ユーザについての位置情報に基づいて前記ユーザに提供する再生コンテンツの再生時間長を決定する時間長決定部を備える
     情報処理装置。
  2.  前記位置情報は前記ユーザが所持している端末情報の位置情報である
     請求項1に記載の情報処理装置。
  3.  前記再生時間長に基づいた前記再生コンテンツを再生させるための配信情報を生成する配信情報生成部を備えた
     請求項1に記載の情報処理装置。
  4.  前記位置情報は前記ユーザの現在位置情報と目的位置情報とを含み、
     前記時間長決定部は前記現在位置情報に基づく現在位置から前記目的位置情報に基づく目的位置に前記ユーザが到達するまでに要する所要時間に基づいて前記再生時間長の決定を行う
     請求項3に記載の情報処理装置。
  5.  前記ユーザが移動中において前記再生コンテンツの再生を行う時間の長さと前記再生コンテンツの再生を行わない時間の長さの比率を取得するユーザ情報取得部を備え、
     前記時間長決定部は前記所要時間と前記ユーザについて取得した前記比率に基づいて前記再生時間長の決定を行う
     請求項4に記載の情報処理装置。
  6.  一または複数の再生候補コンテンツから所定条件に基づいて複数の部分再生コンテンツを選択する選択処理部を備え、
     前記再生コンテンツは前記複数の部分再生コンテンツを結合させた編集再生コンテンツとされた
     請求項3に記載の情報処理装置。
  7.  前記選択処理部は一つの再生候補コンテンツから前記選択を行う
     請求項6に記載の情報処理装置。
  8.  前記選択処理部は複数の再生候補コンテンツから前記選択を行う
     請求項6に記載の情報処理装置。
  9.  前記編集再生コンテンツは、一つの再生候補コンテンツから選択された複数の部分再生コンテンツを時系列順に結合したものとされた
     請求項7に記載の情報処理装置。
  10.  前記所定条件は優先度の高さとされた
     請求項6に記載の情報処理装置。
  11.  前記優先度を決定するための情報として前記ユーザごとの情報を取得するユーザ情報取得部を備えた
     請求項10に記載の情報処理装置。
  12.  前記ユーザ情報取得部は前記ユーザが再生した再生コンテンツの履歴に基づいて前記優先度を取得する
     請求項11に記載の情報処理装置。
  13.  前記所要時間の補正処理を行う所要時間補正処理部を備え、
     前記時間長決定部は前記補正された補正所要時間に基づいて前記再生時間長の決定を行う
     請求項4に記載の情報処理装置。
  14.  前記所要時間補正処理部は前記補正処理において交通機関の遅延情報を用いる
     請求項13に記載の情報処理装置。
  15.  前記配信情報を送信する送信処理部を備えた
     請求項3に記載の情報処理装置。
  16.  前記再生コンテンツは動画像コンテンツとされた
     請求項3に記載の情報処理装置。
  17.  ユーザについての位置情報に基づいて前記ユーザに提供する再生コンテンツの再生時間長を決定する決定処理を
     情報処理装置が実行する情報処理方法。
  18.  ユーザについての位置情報に基づいて前記ユーザに提供する再生コンテンツの再生時間長を決定する決定機能をコンピュータ装置に実現させる
     コンピュータ装置が読み取り可能なプログラム。
PCT/JP2021/019917 2020-06-29 2021-05-26 情報処理装置、情報処理方法、プログラム WO2022004202A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020112039 2020-06-29
JP2020-112039 2020-06-29

Publications (1)

Publication Number Publication Date
WO2022004202A1 true WO2022004202A1 (ja) 2022-01-06

Family

ID=79315954

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/019917 WO2022004202A1 (ja) 2020-06-29 2021-05-26 情報処理装置、情報処理方法、プログラム

Country Status (1)

Country Link
WO (1) WO2022004202A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005006199A1 (ja) * 2003-07-14 2005-01-20 Matsushita Electric Industrial Co., Ltd. コンテンツ配信装置及びコンテンツ再生装置
JP2018147056A (ja) * 2017-03-01 2018-09-20 ヤフー株式会社 提供装置、提供方法、及び提供プログラム
WO2019244403A1 (ja) * 2018-06-20 2019-12-26 住友電気工業株式会社 コンテンツ提供システム、コンテンツ提供方法、管理サーバ、コンピュータプログラム、およびコンテンツ配信サーバ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005006199A1 (ja) * 2003-07-14 2005-01-20 Matsushita Electric Industrial Co., Ltd. コンテンツ配信装置及びコンテンツ再生装置
JP2018147056A (ja) * 2017-03-01 2018-09-20 ヤフー株式会社 提供装置、提供方法、及び提供プログラム
WO2019244403A1 (ja) * 2018-06-20 2019-12-26 住友電気工業株式会社 コンテンツ提供システム、コンテンツ提供方法、管理サーバ、コンピュータプログラム、およびコンテンツ配信サーバ

Similar Documents

Publication Publication Date Title
US10293263B2 (en) Custom content feed based on fantasy sports data
US8458356B2 (en) System and method for sharing playlists
US9583146B2 (en) Media clip creation and distribution systems, apparatus, and methods
US9510064B2 (en) Video data provision
CN103563390B (zh) 详细信息管理系统
CN107148781A (zh) 产生描绘一或多个事件的定制高光序列
US20070113250A1 (en) On demand fantasy sports systems and methods
US20110256911A1 (en) Providing highlights of identities from a fantasy team
US20100325205A1 (en) Event recommendation service
KR20130133918A (ko) 대화형 미디어 안내 애플리케이션의 화면에서 디스플레이를 위한 미디어 애셋을 선택하는 시스템 및 방법
JP6186068B1 (ja) コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム
WO2007030621A1 (en) On demand fantasy sports game enhanced with recorded real sports broadcasts
WO2021199559A1 (ja) 動画配信装置、動画配信方法、および、動画配信プログラム
US20110279677A1 (en) Systems and Methods for Providing Event-Related Video Sharing Services
US8527880B2 (en) Method and apparatus for virtual editing of multimedia presentations
JP2003179901A (ja) 番組配信システムおよび付加情報挿入方法
JP5043711B2 (ja) ビデオ評価装置及び方法
WO2022004202A1 (ja) 情報処理装置、情報処理方法、プログラム
JP2005110016A (ja) 配信映像リコメンド方法、装置およびプログラム
JP4784190B2 (ja) コンテンツ再生装置、コンテンツ配信装置及びプログラム
JP4283259B2 (ja) 情報処理装置、コンテンツ推薦装置、情報処理サーバ、情報処理方法、情報処理プログラム及びこれを記録したコンピュータ読み取り可能な記録媒体
JP7390877B2 (ja) 動画編集装置、動画編集方法及びコンピュータプログラム
KR20090001629A (ko) 네트워크를 이용한 앨범 관리 서비스 제공 방법 및 앨범관리 시스템
JP2003163893A (ja) 映像再生制御方法、映像再生制御システム、サーバ装置、クライアント装置、並びに、映像再生制御プログラム及びその記録媒体
JP2007013312A (ja) 通信端末及び情報処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21831887

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21831887

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP