WO2001084829A1 - Dispositif de generation d'informations, procede de generation d'informations et support de stockage de programmes - Google Patents

Dispositif de generation d'informations, procede de generation d'informations et support de stockage de programmes Download PDF

Info

Publication number
WO2001084829A1
WO2001084829A1 PCT/JP2001/003741 JP0103741W WO0184829A1 WO 2001084829 A1 WO2001084829 A1 WO 2001084829A1 JP 0103741 W JP0103741 W JP 0103741W WO 0184829 A1 WO0184829 A1 WO 0184829A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
data
editing
material data
information
Prior art date
Application number
PCT/JP2001/003741
Other languages
English (en)
French (fr)
Inventor
Takao Yoshimine
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/018,954 priority Critical patent/US7552388B2/en
Priority to EP01926066.0A priority patent/EP1280342B1/en
Publication of WO2001084829A1 publication Critical patent/WO2001084829A1/ja
Priority to US11/561,978 priority patent/US8209611B2/en
Priority to US13/293,670 priority patent/US9449644B2/en
Priority to US13/450,687 priority patent/US9466331B2/en
Priority to US14/945,025 priority patent/US10692534B2/en
Priority to US16/856,060 priority patent/US20200251145A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Definitions

  • the information providing apparatus is configured such that a predetermined special effect is assigned to a predetermined scene in the scenario, and an application unit that applies the special effect corresponding to the scene to image information associated with the scene. Can be further provided.
  • the information providing apparatus may further include transmission control means for controlling transmission of the image information generated by applying the special effect of the scenario to the image information by the application means.
  • the information providing apparatus may further include a recording control unit that controls recording of the image information generated by applying the special effect of the scenario to the image information by the application unit.
  • the first acquisition means can acquire a scenario selected from a plurality of scenarios.
  • FIG. 3 is a diagram for explaining an example of data recorded by the user information management database.
  • FIG. 6 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 7 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 8 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 9 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 10 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 11 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 12 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 13 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 14 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 15 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 16 is a diagram illustrating an example of a screen displayed by the personal computer.
  • FIG. 35 is a flowchart for explaining the process of the application.
  • FIG. 36 is a flowchart for explaining the attribute setting process.
  • FIG. 38 is a flowchart for explaining another processing of loading the material data owned by the user.
  • Fig. 39 is a flowchart explaining the loading process of shared material data.
  • FIG. 41 to FIG. 43 are flowcharts for explaining the sharing process.
  • the attributes of the material data recorded in the user video management database 4 include whether or not the use is permitted (shared) to other users, whether or not the use of other users is charged, and the evening title. Includes name and genre.
  • the personal computer 111 When using the shared material data, the personal computer 111 records and shares the user video management database 4 based on the data supplied from the video editing server 3. Display the screen for editing the material data.
  • the personal computer 11 allows the video editing server 3 to edit the material data recorded or stored in the user video management database 4 in association with the user ID of the user. Then, the moving image data generated by the editing is recorded in the user video management database 4.
  • the video editing server 3 uses the personal computer 1-2 recorded in the user information management database 7 when the personal computer 12 requests a mouth login via the in-net 2 It is determined whether or not to permit login based on the user's data.
  • the moving image editing server 3 receives moving image, still image, audio data, and the like from the personal computer 11 or 1-2 via the internet 1.
  • the video editing server 3 causes the user video management database 4 to record the received video, still image, or audio data and the like as the material data in association with the user ID of the user.
  • the video editing server 3 reads the material data from the user video management database 4 in response to the request of the personal computer 11 and stores the read material data in the editing temporary space 6. (Personal convenience (Corresponding to evening 1-1) (recorded in a state where the video editing server 3 can edit).
  • the material data loaded into the memory space is not limited to the material data owned by the user of the personal computer 111. For example, the material data permitted to be used by the user of the personal computer user 1-2 (Shared material day).
  • the shared video management database 5 is composed of a memory space such as a hard disk of the video editing server 3 and a database engine executed by the video editing server 3, and has a data ID corresponding to the material data to be shared and a shared data ID. Records the user ID that owns the material data. In other words, the shared video management database 5 records the data overnight specifying the material data overnight and the data related to the material data overnight, and does not record the material data itself.
  • the moving image editing server 3 determines whether or not the received user ID and passcode are registered in the user information management database. If it is determined that the user ID and the password are not registered in the user information management database 7, the video editing server 3 displays a screen (not shown) indicating that login is not possible. Is sent to the personal computer 1 via the Internet 2 and the subsequent video editing is not executed.
  • a field for displaying thumbnails is displayed on the user video thumbnail display screen.
  • the moving image editing server 3 records the data received from the personal computer 1 via the Internet 2 in the user video management database 4 as material data owned by the user of the personal computer 1.
  • the browser program 11 edits the attribute of the material data corresponding to the selected thumbnail display field 1 2 1—1 to 1 2 1 1 9 Displays a dialog box for
  • FIG. 9 is a diagram showing an example of a dialog box for editing an attribute of a material corresponding to a thumbnail.
  • Figure 9 shows an example of a dialog box that includes fields 144 for displaying thumbnails of source data, fields 144 for inputting the title of source data, and fields for inputting the category of source data.
  • 1 4 3 Field for inputting the introduction of material data 1 4 4, Button to select the setting to share material data 1 4 5—1, select the setting not to share material data Buttons 1 4 5-2 to select (one of the buttons 1 4 5-1 and 1 4 5-2 are selected).
  • the browser program 11 displays the editing screen shown in FIG. 10 as an example. I do.
  • a reading button 15 1 for starting the loading of material data from the user video management server 4 on the video editing server 3 is arranged.
  • the browser program 11 sends a request to the personal computer 1 to load all the material data owned by the user via the video editing server via the internet 2 Send to 3.
  • the video editing server 3 is configured to store the material data corresponding to the thumbnail display field 1 7 1—1, the material data corresponding to the thumbnail display field 1 7 1—4, and the thumbnail display field 1 7 1—6.
  • a memory space for editing is secured in the temporary space for editing 6, and the material data corresponding to the thumbnail display field 1 7 1—1 and the thumbnail display field 1 7 1-4 and 7 1 _ 6
  • the corresponding material data is read out from the user video management data base 4 and read into the editing memory space of the editing temporary space 6.
  • the playback button 231 In the edit mode, for example, when the playback button 231 is operated, the material clip 221 specified from the material tray 201 at that time is displayed on the playback screen 221.
  • the play button 2 31 When the play button 2 31 is operated in the state that the play mode is set, as described later, the play button 2 31 is displayed in the output tray 29 1 (recorded in the temporary editing space 6).
  • the play button 2 31 Corresponding to data), automatic or manual The story (scenario) edited in is played from the beginning to the end.
  • the output button 304 is operated when a moving image corresponding to a manually edited story is stored in the user video management database 4.
  • a window 341 as shown in FIG. 21 is displayed below the tone button 242.
  • the user can operate the adjustment bar 342 to select a color tone of X-ray, high contrast, as is, sepia, or monochrome.
  • a window 35 1 as shown in FIG. 22 is displayed below the playback speed button 24 3.
  • the user by operating the adjustment bar 3 5 2, or a faster playback speed of the image, or slow, it is possible to adjust ( An effect display button 244 is displayed below the playback speed button 243.
  • the user drags and drops the select button icon 36 4 shown in Fig. 23 or the select button icon 36 2 shown in Fig. 24 to the effect display By doing so, the effect can be assigned to the material displayed on the playback screen 22 1.
  • a predetermined animation effect can be selected by dragging and dropping a predetermined one of the selection button icons 362 onto the effect display port 244. After making this selection, when the play button 2 3 1 is operated, the image with the animation effect added to the play screen 2 2 1 is displayed in real time. In the example of FIG. 24, the animation effect of “Tokimeki” is displayed.
  • transition display section 301B of the image track 301 shown in FIG. A transition can be added to the image (material clip) displayed on the image display section 301A adjacent before and after.
  • the shake button 285 is operated by the user when starting a shake (automatic editing).
  • the details of the shake (automatic editing) processing executed by the moving image editing server 3 will be described later with reference to the flowcharts of FIGS.
  • the personal computer 1 When the shake button 285 is clicked and the video editing server 3 is performing a shake, the personal computer 1 is performing a shake as shown in the example of FIG. 29. Is displayed. When the shake of the video editing server 3 ends, the personal computer 1 displays a screen indicating that the shake of the video editing server 3 has ended, as shown in FIG. 30. When a screen indicating that the shake of the moving image editing server 3 has been completed is displayed, when a keyboard (not shown) is operated, the personal computer 1 displays a shaked image as shown in FIG. Display a confirmation screen to play or save.
  • step S18 the browser program 11 of the personal computer 1 sends the moving image generated by the automatic editing process of step S17 to the video editing server 3. Is transmitted, and the personal computer overnight 1 displays a moving image, and executes a confirmation process.
  • step S19 the personal computer 1 was generated by the automatic editing process recorded in the temporary editing space 6 on the video editing server 3.
  • the moving image is recorded in the user video management database 4, and the process ends.
  • step S111 the browser program 11 determines whether or not the button 103 shown in FIG. 6 has been clicked, and if it is determined that the button 103 has not been clicked, the button 1 0 3 click Until clicked, the process of step S111 is repeated.
  • step S2303 the video editing program 12 adds the generated data ID to the user video management data base 4 described with reference to FIG.
  • the attribute is recorded, the data recorded in the user video management database 4 is updated, and the process ends.
  • step S 2505 the moving image editing program 12 transmits the thumbnail generated in correspondence with the data ID to the personal combination 1 via the interface 2.
  • step S1502 the browser program 11 receives the data ID and the thumbnail transmitted by the moving image editing server 3.
  • step S1503 the browser program 11 displays the thumbnail on the screen shown in FIG. 11 as an example.
  • step S1504 the browser program 11 reads the selection of the material data based on the selection of the thumbnail display fields 161-1-1 to 161-9.
  • step S155 the browser program 11 determines whether the button 162 for loading the selected data into the work space of the editing temporary space 6 has been clicked, and determines whether or not the button has been clicked. If it is determined that 1 6 2 has not been clicked, the process returns to step S 1504, and the process of reading the selection of material data is repeated.
  • step S15 of FIG. 32 the details of the processing of loading all the material data owned by the user corresponding to the other processing in step S15 of FIG. 32 will be described with reference to the flowchart of FIG. Since the processing of steps S1601 to S1603 is similar to the processing of steps S1501 to S1503 shown in FIG. Omitted.
  • step S166 the browser program 11 receives a message indicating that all material data owned by the user has been loaded.
  • step S1667 the browser program 11 displays on the screen shown in FIG. 12 a message that all the material data owned by the user has been loaded, and the process ends.
  • the personal computer 1 can cause the moving image editing server 3 to execute the automatic editing process.
  • the moving image editing program 12 executes a process of reading the selection setting of the selection buttons 281-1-1 to 281-1-5 in step S53.
  • step S54 the moving image editing program 12 executes a process of reading a loop setting. That is, the user operates the loop button 282 assuming that the scenario obtained by editing is reproduced continuously and repeatedly.
  • the moving image editing program 12 receives the data corresponding to the setting of the loop button 282 in the process of step S2801 in FIG.
  • step S54 the moving image editing program 12 stores data corresponding to the setting of the loop button 282.
  • step S1902 the browser program 11 receives the moving image data transmitted by the moving image editing server 3.
  • step S1903 the browser program 11 reproduces the received moving image data, and the process ends.
  • the user of the personal computer 1 checks the moving image generated by the automatic editing and determines whether to save the moving image. Can be.
  • the video editing server 3 is connected via the Internet 2 to the personal computer.
  • the moving image, still image, or audio data transmitted from the computer 1 is recorded in the user video management database 4 as material data in accordance with the request of the personal computer 1.
  • a moving image can be automatically generated based on the proprietary material data recorded in the.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)

Description

明細書 情報提供装置及び情報提供方法並びにプログラム格納媒体 技術分野 本発明は、 画像を編集する情報提供装置及び情報処理方法並びにこれら情報処 理装置及び情報処理方法が実行するプログラムを格納したプログラム格納媒体に 関する。 景技術 最近、 パーソナルコンピュータの機能が向上し、 テキストデ一夕だけでなく、 画像データも編集することができるようになつている。
画像を編集するには、 操作機能をユーザが学習しなければならず、 学習したと しても、 所定の編集結果を得るには時間がかかり、 更に、 画像データの編集は演 算量が多く、 処理に時間がかかる課題がある。 発明の閧示 本発明は、 このような状況に鑑みて提案されるものであり、 簡単且つ迅速に画 像を編集することができるようにする情報提供装置及び情報処理法を提供するこ とにあり、 さらには、 これら情報提供装置及び情報処理法に用いられるプログラ ムを格納したプログラム格納媒体を提供することを目的とする。
本発明に係る情報提供装置は、 情報処理装置の要求に対応して、 任意の時間の 複数のシーンからなるシナリオを取得する第 1の取得手段と、 情報処理装置の要 求に対応して、 シナリオの利用の対象とされる任意の数の画像情報を取得する第 2の取得手段と、 第 2の取得手段により取得された画像情報のうちの所定のもの を選択し、 第 1の取得手段により取得されたシーンに対応させる対応付け手段と、 対応付け手段によるシナリオのシーンとの対応付けに対応して、 画像情報を修正 する修正手段とを含む。
情報提供装置は、 シナリオのシーンの所定のものには、 所定の特殊効果が割り 当てられており、 シーンに対応付けされた画像情報に、 そのシーンに対応されて いる特殊効果を適用する適用手段を更に設けることができる。
情報提供装置は、 適用手段によりシナリオの特殊効果を画像情報に適用して生 成された画像情報の送信を制御する送信制御手段を更に設けることができる。 情報提供装置は、 適用手段によりシナリオの特殊効果を画像情報に適用して生 成された画像情報の記録を制御する記録制御手段を更に設けることができる。 第 1の取得手段は、 複数のシナリオの中から選択されたものを取得するように することができる。
複数のシナリオのそれそれには、 異なる音楽が対応付けられるようにすること ができる。
第 2の取得手段は、 情報処理装置から供給された画像情報を取得するようにす ることができる。
第 2の取得手段は、 他の情報処理装置から供給された画像情報を取得するよう にすることができる。
また、 本発明に係る情報提供方法は、 情報処理装置の要求に対応して、 任意の 時間の複数のシーンからなるシナリオを取得する第 1の取得ステップと、 情報処 理装置の要求に対応して、 シナリォの利用の対象とされる任意の数の画像情報を 取得する第 2の取得ステップと、 第 2の取得ステップの処理により取得された画 像情報のうちの所定のものを選択し、 第 1の取得ステツプの処理により取得され たシーンに対応させる対応付けステップと、 対応付けステップの処理によるシナ リォのシーンとの対応付けに対応して、 画像情報を修正する修正ステツプとを含 む。
さらに、 本発明に係るプログラム格納媒体に格納されるプログラムは、 情報処 理装置の要求に対応して、 任意の時間の複数のシーンからなるシナリオを取得す る第 1の取得ステップと、 情報処理装置の要求に対応して、 シナリオの利用の対 象とされる任意の数の画像情報を取得する第 2の取得ステップと、 第 2の取得ス テツプの処理により取得された画像情報のうちの所定のものを選択し、 第 1の取 得ステップの処理により取得されたシーンに対応させる対応付けステップと、 対 応付けステップの処理によるシナリオのシーンとの対応付けに対応して、 画像情 報を修正する修正ステップとを含む。
本発明に係る情報提供装置、 情報提供方法、 これら装置及び方法に用いられる プログラムを格納したプログラム格納媒体は、 情報処理装置の要求に対応して、 任意の時間の複数のシーンからなるシナリオが取得され、 情報処理装置の要求に 対応して、 シナリオの利用の対象とされる任意の数の画像情報が取得され、 取得 された画像情報のうちの所定のものが選択され、 取得されたシーンに対応され、 シナリオのシーンとの対応付けに対応して画像情報が修正される。
本発明の更に他の目的、 本発明によって得られる具体的な利点は、 以下に説明 される実施例の説明から一層明らかにされるであろう。 図面の簡単な説明 図 1は、 本発明に係る動画編集システムの一例を示すプロック図である。 図 2は、 動画編集用サーバの構成を説明する図である。
図 3は、 ユーザ情報管理デ一夕ペースが記録しているデータの例を説明する図 である。
図 4は、 ュ一ザ映像管理デ一夕ベースが記録しているデ一夕の例を説明する図 である。
図 5は、 共有映像管理デ一夕ベースが記録しているデータの例を説明する図で ある。
図 6は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 7は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 8は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 9は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 1 0は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 1 1は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 1 2は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 1 3は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 1 4は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 1 5は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 1 6は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 1 7は、 編集の対象を説明する図である。
図 1 8は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 1 9は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 0は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 1は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 2は、 パーソナルコンピュー夕が表示する画面の例を説明する図である。 図 2 3は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 4は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 5は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 6は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 7は、 パーソナルコンビュ一夕が表示する画面の例を説明する図である。 図 2 8は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 2 9は、 パーソナルコンピュータが表示する画面の例を説明する図である。 図 3 0は、 パーソナルコンピュータ 1が表示する画面の例を説明する図である t 図 3 1は、 パーソナルコンピュータ 1が表示する画面の例を説明する図である < 図 3 2は、 画像の編集の全体の処理を説明するフローチャートである。
図 3 3は、 口グインの処理を説明するフローチャートである。
図 3 4は、 サムネイルの表示の処理を説明するフローチヤ一トである。
図 3 5は、 ァヅプロ一ドの処理を説明するフローチヤ一トである。
図 3 6は、 属性の設定の処理を説明するフローチャートである。
図 3 7は、 使用者が所有する素材データのロードの処理を説明するフローチヤ ートである。
図 3 8は、 使用者が所有する素材データのロードの他の処理を説明するフロー チヤ一トである。 図 3 9は、 共有している素材デ一夕のロードの処理を説明するフローチヤ一ト である。
図 4 0は、 自動編集の処理を説明するフローチャートである。
図 4 1乃至図 4 3は、 シェ一力処理を説明するフローチャートである。
図 4 4 A及び図 4 4 Bは、 シナリオを説明する図である。
図 4 5 A乃至図 4 5 Dは、 シーンを説明する図である。
図 4 6は、 シェ一力処理を模式的に説明する図である。
図 4 7は、 動画像の確認の処理を説明するフローチャートである。
図 4 8は、 動画像のデ一夕の保存の処理を説明するフローチャートである。 発明を実施するための最良の形態 本発明に係る情報処理装置及び情報処理方法は、 図 1に示すような動画編集シ ステムにおいて構成される。 この動画編集システムは、 パーソナルコンピュータ 1一 1が、 ブラウザプログラム 1 1一 1を実行して、 ィン夕ーネヅト 2を介して 動画編集用サーバ 3への口グインを要求する。 動画編集用サーバ 3に口グインし た後、 パーソナルコンビュ一夕 1一 1は、 動画編集用サーバ 3から供給されたデ 一夕を基に、 ユーザ映像管理デ一夕ペース 4が記録している、 使用者が所有する 動画像、 静止画像、 又は音声などのデ一夕 (以下、 素材デ一夕と称する) を編集 するための画面を表示する。
パーソナルコンピュータ 1一 1は、 パーソナルコンピュータ 1― 1が記録して いる動画像、 静止画像、 又は音声などのデータをインターネット 2を介して、 動 画編集用サーバ 3に送信する。 動画編集用サーバ 3は、 受信した動画像、 静止画 像、 又は音声などのデータを、 ユーザ映像管理データベース 4に、 素材デ一夕と してユーザ映像管理データベース 4の使用者に対応する領域にパーソナルコンビ ユー夕 1一 1の使用者のユーザ I Dと対応させて記録させる。
ユーザ映像管理データベース 4に記録されている素材データの内、 選択したも のを、 例えば、 パーソナルコンピュータ 1—2などにも利用できる (以下、 共有 していると称する) ようにするとき、 パーソナルコンピュータ 1一 1は、 動画編 集用サーバ 3に、 共有する旨の素材データの属性を設定させる。
ユーザ映像管理データベース 4が記録している素材データの属性には、 他の使 用者に利用を許可する (共有する) か否か、 他の使用者の利用が有料か否か、 夕 ィ トル名及ぴジャンルなどが含まれる。
パーソナルコンピュータ 1一 1は、 共有している素材データを利用するとき、 動画編集用サーバ 3から供給されたデータを基に、 ユーザ映像管理データべ一ス 4が記録している、 共有している素材デ一夕を編集するための画面を表示する。 パーソナルコンピュータ 1一 1は、 ユーザ映像管理データベース 4が使用者の ュ一ザ I Dと対応させて記録している素材デ一夕、 又は共有している素材データ を、 動画編集用サーバ 3に編集させ、 編集により生成された動画像のデータをュ —ザ映像管理デ一夕ベース 4に記録させる。
パーソナルコンピュータ 1— 2は、 ブラウザプログラム 1 1一 2を実行して、 インターネヅ ト 2を介して、 動画編集用サーバ 3への口グインを要求する。 動画 編集用サーバ 3にログインした後、 パーソナルコンビユー夕 1— 2は、 動画編集 用サーバ 3から供給されたデ一夕を基に、 ユーザ映像管理デ一夕ベース 4が記録 している素材デ一夕を編集するための画面を表示する。
パーソナルコンピュー夕 1— 2は、 パーソナルコンピュー夕 1一 2が記録して いる動画像、 静止画像、 又は音声などのデータをインターネッ ト 2を介して、 動 画編集用サーバ 3に送信する。 動画編集用サーバ 3は、 受信した動画像、 静止画 像、 又は音声などのデータを、 ユーザ映像管理データベース 4に、 素材データと してユーザ映像管理データベース 4の使用者に対応する領域にパーソナルコンピ ユー夕 1― 2の使用者のユーザ I Dと対応させて記録させる。
ユーザ映像管理デ一夕ベース 4に記録されている素材デ一夕の内、 選択したも のを、 例えば、 パーソナルコンピュータ 1一 1などにも利用できるように共有す るとき、 パーソナルコンピュータ 1一 2は、 動画編集用サーバ 3に、 共有する旨 の素材データの属性を設定させる。
ユーザ映像管理デ一夕ベース 4が記録している素材データの属性には、 他の使 用者に利用を許可する (共有する) か否か、 他の使用者の利用が有料か否か、 夕 ィ トル名、 及びジャンルなどが含まれる。 パーソナルコンピュータ 1— 2は、 共有している素材データを利用するとき、 動画編集用サーバ 3から供給されたデータを基に、 ユーザ映像管理データペース 4が記録している、 共有している素材データを編集するための画面を表示する。 パーソナルコンピュータ 1 _ 2は、 ユーザ映像管理データベース 4が使用者の ユーザ I Dと対応させて記録している素材デ一夕、 又は共有している素材データ を、 動画編集用サーバ 3に編集させ、 編集により生成された動画像のデ一夕をュ 一ザ映像管理デ一夕ペース 4に記録させる。
動画編集用サーバ 3は、 動画編集プログラム 1 2を実行して、 インターネット 2を介して、 パーソナルコンピュータ 1一 1からログインを要求されたとき、 ュ 一ザ情報管理データペース 7に記録されているパーソナルコンピュータ 1一 1の 使用者のデータを基に、 口グインを許可するか否かを判定する。
動画編集用サーバ 3は、 イン夕一ネヅ ト 2を介して、 パーソナルコンピュータ 1一 2から口グインを要求されたとき、 ユーザ情報管理データベース 7に記録さ れているパーソナルコンピュータ 1— 2の使用者のデ一夕を基に、 ログインを許 可するか否かを判定する。
動画編集用サーバ 3は、 イン夕一ネッ ト 2を介して、 パーソナルコンピュータ 1一 1又は 1 _ 2から動画像、 静止画像、 又は音声のデータなどを受信する。 動 画編集用サーバ 3は、 ュ一ザ映像管理データベース 4に、 受信した動画像、 静止 画像、 又は音声のデータなどを使用者のユーザ I Dと対応させて素材デ一夕とし て記録させる。
動画編集用サーバ 3は、 イン夕一ネヅト 2を介して、 パ一ソナルコンピュータ 1 - 1から編集を要求されたとき、 編集用テンポラリスぺ一ス 6にパーソナルコ ンピュー夕 1一 1に対応する編集用のメモリ空間を確保する。 動画編集用サーバ 3は、 イン夕一ネヅト 2を介して、 パーソナルコンピュータ 1— 2から編集を要 求されたとき、 編集用テンポラリスペース 6にパーソナルコンピュータ 1一 2に 対応する編集用のメモリ空間を確保する。
動画編集用サーバ 3は、 パーソナルコンピュータ 1一 1の要求に対応して、 ュ 一ザ映像管理データベース 4から素材データを読み出して、 読み出した素材デー 夕を編集用テンボラリスペース 6に確保したメモリ空間 (パーソナルコンビユー 夕 1— 1に対応する) にロードする (動画編集用サーバ 3が編集可能な状態に記 録する) 。 メモリ空間にロードされる素材データは、 パーソナルコンピュータ 1 一 1の使用者が所有している素材データのみならず、 例えば、 パーソナルコンビ ユー夕 1— 2の使用者が利用を許可している素材データ (共有している素材デー 夕) を含む。
動画編集用サーバ 3は、 編集用テンポラリスペース 6のメモリ空間にロードさ れた素材デ一夕を編集して、 編集された結果である動画像のデ一夕を生成する。 動画編集用サーバ 3は、 動画像などの素材データを編集する十分な処理能力を有 し、 パーソナルコンピュータ 1― 1では実質的に実行できないような特殊効果な どを含む編集の処理を迅速に実行する。
動画編集用サーバ 3は、 編集して得られた動画像データを、 編集用テンポラリ スペース 6のパーソナルコンピュータ 1― 1に対応する編集用のメモリ空間に記 録する。
動画編集用サーバ 3は、 パーソナルコンピュータ 1一 1の要求に対応して、 編 集して得られた動画像データをパーソナルコンピュータ 1一 1に送信し、 パーソ ナルコンピュータ 1— 1に編集して得られた動画像を表示させる。 また、 動画編 集用サーバ 3は、 パーソナルコンピュータ 1— 1の要求に対応して、 編集して得 られた動画像デ一夕を素材デ一夕として、 ュ一ザ映像管理データベース 4に、 ュ —ザ映像管理デ一タペース 4の使用者に対応する領域にパーソナルコンビュータ 1 - 1の使用者のユーザ I Dと対応させて記録させる。
動画編集用サーバ 3は、 パーソナルコンピュータ 1一 2の要求に対応して、 ュ 一ザ映像管理デ一夕ベース 4から素材デ一夕を読み出して、 読み出した素材デ一 夕を編集用テンポラリスペース 6に確保したメモリ空間 (パーソナルコンビユー 夕 1— 2に対応する) にロードする (動画編集用サーバ 3が編集可能な状態に記 録する) 。 メモリ空間にロードされる素材データは、 パーソナルコンピュータ 1 一 2の使用者が所有している素材データのみならず、 例えば、 パーソナルコンビ ュ一夕 1— 1の使用者が利用を許可している素材データ (共有している素材デー 夕) を含む。
動画編集用サ一バ 3は、 編集用テンポラリスペース 6のメモリ空間にロードさ れた素材データを編集して、 編集された結果である動画像のデータを生成する。 動画編集用サーバ 3は、 編集して得られた動画像デ一夕を、 編集用テンポラリス ペース 6のパーソナルコンピュータ 1 一 2に対応する編集用のメモリ空間に記録 する。
動画編集用サーバ 3は、 パーソナルコンビユー夕 1 一 2の要求に対応して、 編 集して得られた動画像デ一夕をパーソナルコンピュータ 1 一 2に送信し、 パーソ ナルコンピュータ 1一 2に編集して得られた動画像を表示させる。 また、 動画編 集用サーバ 3は、 パーソナルコンピュータ 1一 2の要求に対応して、 編集して得 られた動画像デ一夕を素材デ一夕として、 ユーザ映像管理データベース 4に、 ュ —ザ映像管理データベース 4の使用者に対応する領域にパーソナルコンピュータ 1 - 2の使用者のユーザ I Dと対応させて記録させる。
動画編集用サーバ 3は、 パーソナルコンピュータ 1 一 1又は 1一 2から所定の 素材デ一夕の属性が送信されたとき、 ユーザ映像管理データベース 4が記録して いる、 対応する素材デ一夕の属性を更新する。 動画編集用サーバ 3は、 素材デー 夕に共有する旨の属性が設定されたとき、 その素材データに関するデ一夕を共有 映像管理データベース 5に記録させる。
ユーザ映像管理データベース 4は、 動画編集用サーバ 3のハードディスクなど のメモリ空間、 及び動画編集用サーバ 3が実行するデータべ一スエンジンなどで 構成され、 使用者に対応させた所定の大きさの領域毎に分割され、 その領域毎に、 素材データと共に、 素材データを所有する使用者のユーザ I D、 素材データを特 定するデータ I Dなどを記録する。
共有映像管理データベース 5は、 動画編集用サーバ 3のハードディスクなどの メモリ空間、 及び動画編集用サーバ 3が実行するデータベースエンジンなどで構 成され、 共有される素材データに対応するデータ I D、 共有される素材データを 所有するユーザ I Dなどを記録する。 すなわち、 共有映像管理データベース 5は、 素材デ一夕を特定するデ一夕及び素材デ一夕に関係するデ一夕を記録し、 素材デ 一夕そのものを記録しない。
編集用テンポラリスペース 6は、 動画編集用サーバ 3のハードディスクのメモ リ空間、 又は動画編集用サーバ 3のメインメモリのメモリ空間などから構成され、 編集に利用される素材データ及び編集して得られた動画像データを記録する。 編 集用テンポラリスペース 6のメモリ空間は、 動画編集用サーバ 3が編集をすると き、 編集を要求するパーソナルコンピュータ 1一 1又は 1 _ 2毎に所定の大きさ の領域が、 動画編集用サーバ 3に素材データのロード (編集のための一時的な記 録) 及び編集用として確保される。 素材データのロード (編集のための一時的な 記録) 及び編集用に確保された編集用テンポラリスペース 6のメモリ空間は、 動 画編集用サーバ 3が編集を終了したとき、 開放される。
編集用テンポラリスペース 6は、 動画編集用サーバ 3により管理され、 パ一ソ ナルコンピュータ 1一 1又は 1 _ 2から直接アクセスできない。
ユーザ情報管理データベース 7は、 動画編集用サーバ 3のハードディスクなど のメモリ空間、 及び動画編集用サーバ 3が実行するデータベースエンジンなどで 構成され、 パーソナルコンピュータ 1— 1又は 1— 2などの使用者を特定するュ 一ザ I D、 及ぴパスワードなどを記録する。
以下、 パーソナルコンピュータ 1 一 1及ぴパーソナルコンピュータ 1 一 2を個 々に区別する必要がないとき、 単に、 パーソナルコンピュータ 1と称する。 以下、 ブラウザプログラム 1 1一 1及ぴブラウザプログラム 1 1— 2を個々に区別する 必要がないとき、 単に、 ブラウザプログラム 1 1と称する。
図 2は、 動画編集用サーバ 3の構成を説明する図である。 C P U (Central Pr ocessing Unit) 3 1は、 データベースエンジン又は動画編集プログラム 1 2など の各種のアプリケーションプログラムや、 O S (Operating System)を実際に実行 する。 R O M (Read-only Memory) 3 2は、 一般的には、 C P U 3 1が使用する プログラムや演算用のパラメ一夕のうちの基本的に固定のデ一夕を格納する。 R A M (Random-Access Memory) 3 3は、 C P U 3 1の実行において使用するプロ グラムや、 その実行において適宜変化するパラメータを格納する。 これらは C P Uバスなどから構成されるホストバス 3 4により相互に接続されている。
ホストバス 3 4は、 プリヅジ 3 5を介して、 P C I (Peripheral Component In terconnect/Iiiterface )バスなどの外部バス 3 6に接続されている。
キーボード 3 8は、 C P U 3 1に各種の指令を入力するとき、 使用者により操 作される。 ポィンティングデバイス 3 9は、 ディスプレイ 4 0の画面上のポィン トの指示や選択を行うとき、 使用者により操作される。 ディスプレイ 4 0は、 液 晶表示装置又は CRT (Cathode Ray Tube) などから成り、 各種情報をテキストゃィ メージで表示する。 H D D (Hard Disk Drive) 4 1は、 ハードディスクを駆動し、 それらに C P U 3 1によって実行するプログラムや情報を記録又は再生させる。
ドライブ 4 2は、 装着されている磁気ディスク 6 1、 光ディスク 6 2、 光磁気 ディスク 6 3、 又は半導体メモリ 6 に記録されているデ一夕又はプログラムを 読み出して、 そのデータ又はプログラムを、 イン夕一フェース 3 7、 外部バス 3 6、 ブリッジ 3 5、 及びホストバス 3 4を介して接続されている R A M 3 3に供 給する。
これらのキーボード 3 8乃至ドライブ 4 2は、 イン夕一フェース 3 7に接続さ れており、 ィン夕ーフェース 3 7は、 外部バス 3 6、 プリヅジ 3 5、 及びホスト バス 3 4を介して C P U 3 1に接続されている。
通信部 4 3は、 イン夕一ネヅト 2が接続され、 C P U 3 1、 又は H D D 4 1か ら供給されたデ一夕 (例えば、 ブラウザプログラム 1 1一 1又は 1 1— 2に編集 を指示させるための画面を表示させるデ一夕など) を、 所定の方式のパケットに 格納して、 インターネット 2を介して、 送信するとともに、 イン夕一ネット 2を 介して、 受信したパケットに格納されているデータ (例えば、 動画像、 静止画像、 音声などのデ一夕など) を C P U 3 1、 R A M 3 3 , 又は H D D 4 1に出力する。 通信部 4 3は、 外部バス 3 6、 ブリッジ 3 5、 及びホストバス 3 4を介して C P U 3 1に接続されている。
なお、 パーソナルコンピュータ 1一 1又は 1一 2は、 動画編集用サーバ 3と同 様の構成を有しているので、 その説明は、 省略する。
図 3は、 ュ一ザ情報管理データベース 7が記録しているパーソナルコンビユー 夕 1 _ 1又は 1— 2などの使用者を特定するユーザ I D、 パスワードなどのデ一 夕の例を示す図である。 ユーザ情報管理データペース 7は、 使用者を特定するュ 一ザ I Dに対応させて、 その使用者のパスワード、 その使用者に対応するユーザ 映像管理データベース 4のユーザエリアを示すディレクトリ情報、 及びその使用 者のその時点でのサービス利用料 (例えば、 所定の期間の使用者に対する課金の 積算された金額を示す) などを記録している。 図 3の例において、 ユーザ情報管理データベース 7は、 ユーザ I Dが aaaaaであ る使用者のパスワードが、 ***** (パスワードは、 実際には、 アルファべヅト、 数 字、 又は特殊文字などで構成される文字列から成る。 以下同じ。 ) であり、 ユー ザ I Dが aaaaaである使用者のユーザ映像管理デ一夕ペース 4のユーザェリァが、 user¥aaaaaのディレクトリであり、 ユーザ I Dが aaaaaである使用者のサービス利 用料が、 2000円であることを示すデータを記録している。
ユーザ情報管理データベース Ίは、 ユーザ I Dが bbbbbである使用者のパスヮー ドが、 *****であり、 ユーザ I Dが bbbbbである使用者のユーザ映像管理デ一夕べ ース 4のユーザエリアが、 user¥bbbbbのディレクトリであり、 ユーザ I Dが bbbb bである使用者のサービス利用料が、 1800円であることを示すデ一夕を記録してい る。
同様に、 ユーザ情報管理データベース 7は、 ユーザ I Dが cccccである使用者の パスワードが、 *****であり、 ユーザ I Dが cccccである使用者のユーザ映像管理 デ—夕ベース 4のユーザエリアが、 user¥cccccのディレクトリであり、 ユーザ I Dが cccccである使用者のサービス利用料が、 3500円であることを示すデ一夕を記 録している。
ュ一ザ I D、 パスワード、 及びディレクトリ情報は、 パーソナルコンピュータ 1の使用者による動画編集システムの利用に先立って、 動画編集用サーバ 3の管 理者などにより、 ユーザ情報管理デ一夕ベース 7に記録される。
図 4は、 ユーザ映像管理デ一夕べ一ス 4が記録している素材データを特定する データ I D、 及びユーザ I Dなどのデ一夕の例を示す図である。
ユーザ映像管理デ一夕ベース 4は、 動画像、 静止画像、 若しくは音声のデ一夕 などの素材データを格納しているファイルと共に、 素材データを特定するデ一夕 I Dに対応させて、 その素材データの所有している使用者を特定するュ一ザ I D、 その素材データが格納されているファイルが記録されているディレクトリ、 その ファイルの名称であるファイル名、 その素材データのタイ トル、 その素材デ一夕 のカテゴリ、 その素材デ一夕の紹介文、 他の利用者にその素材デ一夕の利用を許 可するか否かを示す共有フラグ、 その素材データを他の利用者が利用するとき有 料か否かを示す有料フラグ、 及び有料であるときの料金などを記録している。 図 4の例において、 ユーザ映像管理デ一夕ベース 4は、 デ一夕 I Dが xxxxxであ る素材データを所有している使用者のユーザ I Dが aaaaaであり、 デ一夕 I Dが x xxxxである素材デ一夕を格納しているファイルが記録されているディレクトリが user¥aaaaa¥movielであり、 デ一夕 I D力 Sxxxxxである素材データを格納している ファイルのファイル名が golf. movであり、 デ一夕 I Dが xxxxxである素材データの タイ トルがゴルフであり、 デ一夕 I Dが xxxxxである素材デ一夕のカテゴリがスポ —ッであり、 及び、 デ一夕 I Dが xxxxxである素材データの紹介文が ****** (紹介 文は、 実際には、 平仮名、 力夕カナ、 漢字、 アルファペッ ト、 数字、 又は特殊文 字などで構成される文字列から成る。 以下同じ。 ) であることを示すデータ、 並 びに他の利用者にその素材デ一夕の利用を許可しないことを示す 0である共有フ ラグを格納している。
ユーザ映像管理データベース 4は、 デ一夕 I Dが yyyyyである素材データを所有 している使用者のユーザ I Dが aaaaaであり、 データ I Dが yyyyyである素材デー 夕を格納しているファイルが記録されているディレクトリが user¥aaaaa¥movielで あり、 データ I Dが yyyyyである素材データを格納しているファイルのファイル名 が; ish.niovであり、 デ一夕 I Dが yyyyyである素材データのタイ トルが釣りであり、 デ一夕 I Dが yyyyyである素材データのカテゴリがスポーツであり、 及ぴデ一夕 I Dが yyyyyである素材データの紹介文が ******であることを示すデータ、 並びに他 の利用者にその素材デ一夕の利用を許可することを示す 1である共有フラグ、 及 びその素材デ一夕を他の利用者が利用するとき無料であることを示す 0である有 料フラグを格納している。
同様に、 ユーザ映像管理データベース 4は、 データ I Dが zzzzzである素材デー タを所有している使用者のユーザ I Dが aaaaaであり、 データ I Dが zzzzzである 素材デ一夕を格納しているファイルが記録されているディレクトリが user¥aaaaa ¥movie2であり、 デ一夕 I Dが zzzzzである素材デ一夕を格納しているファイルの ファイル名が travel . movであり、 デ一夕 I Dが zzzzzである素材デ一夕のタイ トル が旅であり、 データ I Dが zzzzzである素材デ一夕のカテゴリが旅であり、 及び、 デ一夕 I Dが zzzzzである素材データの紹介文が ******であることを示すデータ、 並びに他の利用者にその素材デ一夕の利用を許可することを示す 1である共有フ ラグ、 その素材デ一夕を他の利用者が利用するとき有料であることを示す 1であ る有料フラグ、 及びその素材デ一夕を利用する料金が 200円であることを示すデー 夕を格納している。
他の利用者が、 料金が 200円に設定された素材データを編集に利用したとき、 他 の利用者のサービス利用料には、 200円が加算され、 その素材データを所有してい る利用者のサービス利用料から、 200円が減算される。 ただし、 サービス利用料は、 0又はプラスの範囲の値で、 マイナスの値にはならない。
なお、 料金はマイナスの値とすることが可能である。 使用者が、 例えば、 宣伝 用の動画像などの素材デ一夕にマイナスの料金を設定した場合、 他の使用者がそ の素材データを使用すると、 他の使用者のサービス利用料は減少し、 使用者のサ 一ビス利用料は増加する。 すなわち、 使用者は、 他の使用者に料金を支払って、 他の使用者に宣伝用の動画像などを利用させることができる。
また、 共有している素材データを利用すると、 使用者及び他の使用者に所定の ポイントが加算又は減算されるようにしてもよい。 この場合、 動画編集用サーバ 3の管理者は、 例えば、 図示せぬ W e bサーバでパーソナルコンピュータ 1の使 用者の要求を受け付けて、 このボイントを使用者が所望するサービス又は商品と 交換する。
更に、 ユーザ映像管理データベース 4は、 課金の処理のため、 ユーザ I Dに対 応させて、 使用者のクレジット番号を記録するようにしてもよい。
図 5は、 共有映像管理デ一夕べ一ス 5が記録しているパーソナルコンピュータ 1— 1又は 1— 2などの使用者を特定するユーザ I D、 及ぴデータ I Dなどのデ 一夕の例を示す図である。 共有映像管理データべ一ス 5は、 共有フラグが 1に設 定された素材データ (すなわち、 共有されている素材デ一夕) を特定するデ一夕 I D、 その素材データの所有者を特定するユーザ I D、 及びその素材デ一夕を他 の利用者が利用するとき有料か否かを示す有料フラグなどを記録している。
図 5の例において、 共有映像管理データベース 5は、 デ一夕 I Dが yyyyyである 素材デ一夕の所有者のユーザ I Dが aaaaaであり、 及びその素材データを他の利用 者が利用するとき無料であることを示す 0である有料フラグを格納している。
共有映像管理データベース 5は、 デ一夕 I Dが zzzzzである素材デ一夕の所有者 のユーザ I Dが aaaaaであり、 及びその素材デ一夕を他の利用者が利用するとき有 料であることを示す 1である有料フラグを格納している。
共有映像管理データベース 5は、 データ I ϋが WiMihである素材データの所有者 のユーザ I Dが cccccであり、 及びその素材デ一夕を他の利用者が利用するとき有 料であることを示す 1である有料フラグを格納している。
次に、 パーソナルコンピュータ 1が動画編集用サーバ 3に動画像、 静止画像、 又は音声などの素材デ一夕を編集させるときに、 パーソナルコンピュータ 1が表 示する画面について説明する。
図 6は、 パーソナルコンピュータ 1が、 イン夕一ネ ヅ ト 2を介して、 動画編集 用サーバ 3に接続したとき、 ブラウザプログラム 1 1が表示させる初期画面を示 す図である。
初期画面には、 ユーザ I Dを入力するフィールド 1 0 1、 パスワードを入力す るフィ一ルド 1 0 2、 及び口グインの要求を動画編集用サーバ 3に送信させるボ タン 1 0 3が配置されている。 図 6に示す例において、 フィ一ルド 1 0 1には、 パーソナルコンビュ—夕 1の使用者を特定するユーザ I Dである" ano" が入力さ れ、 フィールド 1 0 2には、 パーソナルコンピュー夕 1の使用者のパスヮードで ある" (実際には、 数字、 アルファべット、 又は特殊文字などからなる文 字列) が入力されている。
図 6に示す状態から、 ボタン 1 0 3がクリックされると、 ブラウザプログラム 1 1は、 パーソナルコンピュータ 1に、 インターネ ヅ ト 2を介して、 入力された ユーザ I D及びパスヮードと共に、 口グインの要求を動画編集用サーバ 3に送信 させる。
ログインが要求されたとき、 動画編集用サーバ 3は、 受信したユーザ I D及び パスヮ一ドが、 ユーザ情報管理データベース Ίに登録されているか否かを判定す る。 ュ一ザ I D及びパスワードがユーザ情報管理デ一夕ベース 7に登録されてい ないと判定された場合、 動画編集用サーバ 3は、 ログインできない旨を示す画面 (図示せず) を表示させるデ一夕をインターネッ ト 2を介して、 パーソナルコン ピュー夕 1に送信し、 それ以後の動画の編集の処理を実行しない。
受信したュ一ザ I D及びパスワードが、 ユーザ情報管理データベース 7に登録 されていると判定された場合、 動画編集用サーバ 3は、 ユーザ映像管理データべ ース 4からユーザ I Dに対応して記録されている素材データを読み出して、 サム ネイルを生成して (素材データが動画像のデ一夕の場合、 最初の画面などからサ ムネイルが生成される。 生成の処理は、 デ一夕の方式に対応して実行され、 例え ば、 JPEG (Joint Photographic Experts Group) 方式のデータの場合、 ファイル のへヅダに格納されているサムネイルのデ一夕を抽出する。 ) 、 サムネイルを表 示させる画面のデ一夕をパーソナルコンビュ一夕 1に送信する。
図 7は、 パーソナルコンピュータ 1が使用者の所有する素材データに対応する サムネイルを表示させる画面のデ一夕を受信したとき、 ブラウザプログラム 1 1 が表示させるユーザ映像サムネイル表示画面を示す図である。
ユーザ映像サムネイル表示画面には、 サムネイルを表示させるフィールド 1 1
1、 動画像、 静止画像、 又は音声のデータなどを動画編集用サーバ 3に送信させ る処理を実行させるためのボタン 1 1 2、 ュ一ザ映像管理データベース 4に記録 されている素材デ一夕の属性を編集する処理を実行させるためのボ夕ン 1 1 3、 及び動画像の編集を動画編集用サーバ 3に実行させる処理を実行するボ夕ン 1 1 4などが配置されている。
フィールド 1 1 1には、 更に、 1つの素材デ一夕に対応するサムネイルをその 属性に対応するアイコンと共に表示するサムネイル表示フィールド 1 2 1 _ 1乃 至 1 2 1— 9が配置されている。
図 7に示す例において、 ブラウザプログラム 1 1は、 サムネイル表示フィール ド 1 2 1— 1に、 サムネイルに対応する素材デ一夕が静止画像のデ一夕であるこ とを示すカメラを模したアイコンと共に、 静止画像である素材デ一夕のサムネィ ルを表示する。
ブラウザプログラム 1 1は、 サムネイル表示フィールド 1 2 1—2に、 サムネ ィルに対応する素材デ一夕が動画画像のデータであることを示すビデオカメラを 模したアイコン、 動画像の再生を指示するアイコン、 及び動画像の再生を停止さ せるアイコンと共に、 動画像である素材データのサムネイルを表示する。
同様に、 ブラウザプログラム 1 1は、 サムネイル表示フィールド 1 2 1— 3乃 至 1 2 1— 9に、 素材データのサムネイルと共に、 素材デ一夕の方式に対応した アイコンを表示する。
動画像、 静止画像、 又は音声のデ一夕などを動画編集用サーバ 3に送信させる 処理を実行させるためのポタン 1 1 2がクリヅクされたとき、 ブラウザプログラ ム 1 1は、 図 8に示すダイアログボックスを表示する。 図 8に例を示すダイァロ グボヅクスには、 送信するデータが格納されているファイルのファイル名を入力 するフィールド 1 3 1、 及び送信を開始させるボタン 1 3 2が配置されている。 例えば、 図 8に示すように、 フィールド 1 3 1にファイル名" golf . mov" が入 力されている場合、 ボ夕ン 1 3 2がクリヅクされると、 ブラウザプログラム 1 1 は、 ファイル名が" golf . mov" であるファイルに格納されているデ一夕を、 例え ば、 HTTP (HyperText Transfer Protocol) の手続きに基づき、 インターネット 2 を介して、 動画編集用サーバ 3に送信する。
動画編集用サ一バ 3は、 インターネット 2を介して、 パーソナルコンピュータ 1から受信したデ一夕を、 パーソナルコンピュータ 1の使用者が所有する素材デ —タとしてユーザ映像管理データベース 4に記録させる。
図 7に示す、 サムネイル表示フィールド 1 2 1— 1乃至 1 2 1— 9のいずれか を選択して、 ユーザ映像管理デ一夕ペース 4に記録されている素材デ一夕の属性 を編集する処理を実行させるためのボ夕ン 1 1 3がクリックされたとき、 ブラウ ザプログラム 1 1は、 選択したサムネイル表示フィールド 1 2 1— 1乃至 1 2 1 一 9に対応する素材データの属性を編集するための、 ダイアログボックスを表示 する。
図 9は、 サムネイルに対応する素材デ一夕の属性を編集するための、 ダイァロ グボックスの例を示す図である。 図 9に例を示すダイアログボックスには、 素材 デ一夕のサムネイルを表示するフィールド 1 4 1、 素材データのタイ トルを入力 するためのフィールド 1 4 2、 素材データのカテゴリを入力するためのフィール ド 1 4 3、 素材デ一夕の紹介文を入力するためのフィ一ルド 1 4 4、 素材デ一夕 を共有する設定を選択するボタン 1 4 5— 1、 素材データを共有しない設定を選 択するボタン 1 4 5— 2 (ポタン 1 4 5— 1及びボタン 1 4 5— 2は、 いずれか 1つが選択される) が配置されている。
更に、 図 9に例を示すダイアログボックスには、 共有した素材デ一夕の利用を 有料に設定するボタン 1 4 6— 1、 共有した素材データの利用を無料に設定する ボタン 1 4 6— 2 (ボタン 1 4 6 _ 1及びボタン 1 4 6 _ 2は、 いずれか 1つが 選択される) 、 共有した素材デ一夕の利用を有料に設定したときの料金を入力す るフィールド 1 4 7、 及び素材データの属性の送信を開始させるボタン 1 4 8が 配置されている。
図 9のダイアログボヅクスの例において、 フィールド 1 4 2には、 素材デ一夕 のタイ トルとして"旅" が入力され、 フィールド 1 4 3には、 素材デ一夕の力テ ゴリとして"旅" が入力され、 フィールド 1 4 4には、 素材データの紹介文とし て" 秋の遠足" が入力されている。 また、 図 9のダイアログボックスの例におい て、 素材デ一夕を共有する設定を選択するボタン 1 4 5— 1が選択され、 共有し た素材デ一夕の利用を有料に設定するボタン 1 4 6— 1が選択され、 フィールド 1 7には、 利用料金として 200円が入力されている。
図 9に示す状態から、 ボタン 1 4 8がクリックされると、 ブラウザプログラム 1 1は、 パーソナルコンビュ一夕 1に、 フィールド 1 4 2乃至フィールド 1 4 7 の入力又は設定に対応した属性を、 イン夕一ネット 2を介して、 動画編集用サ一 バ 3に送信させる。 動画編集用サーバ 3は、 属性を受信したとき、 ユーザ映像管 理デ一夕ペース 4に、 図 4を参照して説明したように、 その素材データのデータ I Dに対応させて、 属性を格納させる。
その素材データを共有する旨の属性を受信したとき、 動画編集用サーバ 3は、 素材デ一夕に対応するデータ I D、 その素材データを所有する使用者のユーザ I D、 及びその素材デ一夕の利用が有料か否かを示す有料フラグを、 共有映像管理 データベース 5に格納させる。
図 7に示す、 動画像の編集を動画編集用サーバ 3に実行させる処理を実行する ボタン 1 1 4がクリックされたとき、 ブラウザプログラム 1 1は、 図 1 0に例を 示す、 編集画面を表示する。 編集画面には、 動画編集用サーバ 3に、 ユーザ映像 管理デ一夕ベース 4から素材データのロードを開始させる読み込みボタン 1 5 1 が配置されている。
読み込みポ夕ン 1 5 1がクリヅクされたとき、 ブラゥザプログラム 1 1は、 パ 一ソナルコンピュータ 1に、 ィン夕ーネヅト 2を介して、 素材デ一夕の口一ドを 要求するデ一夕を送信させる。 素材データのロードを要求するデ一夕を受信した 動画編集用サーバ 3は、 ュ一ザ映像管理データベース 4からパーソナルコンビュ 一夕 1の使用者が所有する動画像、 静止画像、 又は音声などの素材データなどを 読み出して、 読み出した素材データに対応するサムネイルを生成して、 サムネィ ルを表示させるデータをィンターネヅト 2を介して、 パーソナルコンピュータ 1 に送信する。
サムネイルを表示させるデ一夕を受信したパーソナルコンピュータ 1は、 例え ば、 図 1 1に示す編集素材選択画面を表示する。
編集素材選択画面には、 1つの素材データに対応するサムネイルを素材データ の内容に対応するアイコンと共に表示するサムネイル表示フィールド 1 6 1— 1 乃至 1 6 1—9、 選択した素材デ一夕を編集用テンポラリスペース 6の作業用の スペースにロードさせるボタン 1 6 2、 パーソナルコンピュータ 1の使用者が所 有する全ての素材デ一夕を編集用テンポラリスペース 6の作業用のスペースに口 ードさせるボタン 1 6 3、 及び共有されている素材デ一夕のサムネイルを表示さ せる処理を鬨始するポタン 1 6 4が配置されている。
例えば、 サムネイル表示フィールド 1 6 1 _ 3、 サムネイル表示フィールド 1 6 1— 5、 及びサムネイル表示フィールド 1 6 1— 7が選択されている場合、 ポ タン 1 6 2がクリックされたとき、 ブラウザプログラム 1 1は、 パーソナルコン ピュー夕 1に、 サムネイル表示フィ一ルド 1 6 1— 3に対応する素材データ、 サ ムネイル表示フィールド 1 6 1— 5に対応する素材データ、 及びサムネイル表示 フィールド 1 6 1— 7に対応する素材デ一夕のロードの要求を、 イン夕ーネヅト 2を介して動画編集用サーバ 3に送信する。
動画編集用サーバ 3は、 サムネイル表示フィールド 1 6 1一 3に対応する素材 データ、 サムネイル表示フィールド 1 6 1— 5に対応する素材デ一夕、 及びサム ネイル表示フィールド 1 6 1— 7に対応する素材デ一夕のロードの要求を受信し たとき、 編集用テンポラリスペース 6に編集用のメモリ空間を確保し、 サムネィ ル表示フィールド 1 6 1一 3に対応する素材デ一夕、 サムネイル表示フィールド 1 6 1 - 5に対応する素材デ一夕、 及びサムネイル表示フィールド 1 6 1— 7に 対応する素材デ一夕をユーザ映像管理デ一夕ベース 4から読み出して、 編集用テ ンポラリスペース 6の編集用のメモリ空間にロードする (動画編集用サーバ 3が 編集可能な状態に記録する) 。
サムネイル表示フィールド 1 6 1— 3に対応する素材データ、 サムネイル表示 フィールド 1 6 1— 5に対応する素材データ、 及びサムネイル表示フィールド 1 6 1—7に対応する素材データをユーザ映像管理デ一夕ベース 4からロードした とき、 動画編集用サーバ 3は、 サムネイル表示フィールド 1 6 1 _ 3に対応する 素材データ、 サムネイル表示フィールド 1 6 1— 5に対応する素材デ一夕、 及び サムネイル表示フィールド 1 6 1一 7に対応する素材デ一夕をロードした旨を示 すデ一夕を、 インターネッ ト 2を介して、 パーソナルコンピュータ 1に送信する ( サムネイル表示フィールド 1 6 1— 3に対応する素材デ一夕、 サムネイル表示 フィールド 1 6 1— 5に対応する素材データ、 及びサムネイル表示フィ一ルド 1 6 1—7に対応する素材データをロードした旨を示すデ一夕を受信したとき、 パ 一ソナルコンピュータ 1は、 図 1 2に示すように、 ロードした素材デ一夕のサム ネイルを編集画面の所定の領域に表示させる。
ボタン 1 6 3がクリックされたとき、 ブラウザプログラム 1 1は、 パーソナル コンピュータ 1に、 使用者が所有する全ての素材デ一夕のロードの要求を、 イン 夕一ネット 2を介して動画編集用サーバ 3に送信する。
動画編集用サーバ 3は、 使用者が所有する全ての素材データのロードの要求を 受信したとき、 編集用テンポラリスペース 6に編集用のメモリ空間を確保し、 使 用者が所有する全ての素材データをユーザ映像管理データベース 4から読み出し て、 編集用テンポラリスペース 6の編集用のメモリ空間に口一ドする。
使用者が所有する全ての素材デ一夕をユーザ映像管理データベース 4からロー ドしたとき、 動画編集用サーバ 3は、 使用者が所有する全ての素材デ一夕をロー ドした旨を示すデータを、 インターネット 2を介して、 パーソナルコンピュータ 1に送信する。
使用者が所有する全ての素材デ一夕をロードした旨を示すデ一夕を受信したと き、 パーソナルコンピュータ 1は、 ロードしたデ一夕のサムネイルを編集画面の 所定の領域に表示させる。
ポタン 1 6 4がクリックされたとき、 ブラウザプログラム 1 1は、 パーソナル コンピュータ 1に、 共有されている素材デ一夕のサムネイルの要求を、 インタ一 ネット 2を介して動画編集用サーバ 3に送信する。
動画編集用サーバ 3は、 共有されている素材データのサムネイルの要求を受信 したとき、 共有映像管理データベース 5から共有されている素材データのデータ I Dを読み出す。
動画編集用サーバ 3は、 編集用テンポラリスペース 6に編集用のメモリ空間を 確保し、 共有映像管理データペース 5から読み出したデータ I Dに対応する素材 データを、 ユーザ映像管理データベース 4から読み出して、 サムネイルを生成し て、 サムネイルを表示させるデ一夕をパーソナルコンピュータ 1に送信する。 図 i 3は、 パーソナルコンピュータ 1が共有されている素材デ一夕のサムネィ ルを表示させるデ^夕を受信したとき、 ブラウザプログラム 1 1が表示させる共 有映像サムネイル表示画面を示す図である。 共有映像サムネイル表示画面には、 共有されている 1つの素材デ一夕に対応するサムネイルを素材デ一夕の内容に対 応するアイコンと共に表示するサムネイル表示フィ一ルド 1 7 1— 1乃至 1 7 1 一 9、 及び選択した素材デ一夕を動画編集用サーバ 3にロードさせるボタン 1 7 2が配置されている。
例えば、 サムネイル表示フィールド 1 7 1— 1、 サムネイル表示フィールド 1 7 1—4、 及びサムネイル表示フィ一ルド 1 7 1— 6が選択されている場合、 ボ タン 1 7 2がクリヅクされたとき、 ブラウザプログラム 1 1は、 パーソナルコン ピュー夕 1に、 サムネイル表示フィールド 1 7 1— 1に対応する素材デ一夕、 サ ムネイル表示フィールド 1 7 1— 4に対応する素材デ一夕、 及びサムネイル表示 フィールド 1 7 1— 6に対応する素材デ一夕の口一ドの要求を、 ィンターネッ ト 2を介して動画編集用サーバ 3に送信する。
動画編集用サーバ 3は、 サムネイル表示フィールド 1 7 1— 1に対応する素材 データ、 サムネイル表示フィールド 1 7 1— 4に対応する素材デ一夕、 及ぴサム ネイル表示フィ一ルド 1 7 1— 6に対応する素材データのロードの要求を受信し たとき、 編集用テンポラリスペース 6に編集用のメモリ空間を確保し、 サムネィ ル表示フィールド 1 7 1— 1に対応する素材データ、 サムネイル表示フィ一ルド 1 7 1 - 4に対応する素材デ一夕、 及びサムネイル表示フィ一ルド 1 7 1 _ 6に 対応する素材データをユーザ映像管理デ一夕ベース 4から読み出して、 編集用テ ンポラリスペース 6の編集用のメモリ空間に口一ドする。
サムネイル表示フィールド 1 7 1— 1に対応する素材データ、 サムネイル表示 フィールド 1 7 1— 4に対応する素材データ、 及びサムネイル表示フィールド 1 7 1— 6に対応する素材デ一夕をロードしたとき、 動画編集用サーバ 3は、 サム ネイル表示フィールド 1 7 1— 1に対応する素材デ一夕、 サムネイル表示フィ一 ルド 1 7 1— 4に対応する素材データ、 及ぴサムネイル表示フィールド 1 7 1— 6に対応する素材データをロードした旨を示すデータを、 イン夕ーネ ヅ ト 2を介 して、 パーソナルコンビュ一夕 1に送信する。
サムネイル表示フィールド 1 7 1— 1に対応する素材デ一夕、 サムネイル表示 フィールド 1 7 1— 4に対応する素材データ、 及びサムネイル表示フィールド 1 7 1 - 6に対応する素材デ一夕をロードした旨を示すデ一夕を受信したとき、 パ 一ソナルコンピュータ 1は、 ロードした素材デ一夕のサムネイルを編集画面の所 定の領域に表示させる。
編集画面には、 図 1 4に示すように、 更に、 編集の素材となるテキストを入力 するウィンドウ (図 1 4の例では、 テキスト" Personal Casting" が入力されて いる。 ウィンドウの詳細は、 図 2 8を参照して後述する) などが配置されている c 次に、 編集画面の詳細について説明する。
図 1 5は、 編集画面の一部の表示例を表している。 同図に示すように、 編集画 面の左上方には、 素材トレィ 2 0 1が表示される。 素材トレィ 2 0 1には、 図 1 0を参照して説明した、 読み込みボタン 1 5 1が表示されている。 なお、 素材ト レイ 2 0 1は、 図 1 6に拡大して示されている。
編集用テンポラリスペース 6の編集用のメモリ空間に口一ドされ、 動画像の編 集対象とされた動画像又は静止画像などの素材データは、 素材トレィ 2 0 1に素 材クリ ヅプ 2 1 1として表示される。 図 1 6に拡大して示されているように、 素 材クリップ 2 1 1のお側には、 その素材データのタイ トル、 動画像と静止画像の 区別、 並びに、 再生時間が表示されている。 スクロールバー 2 1 2は、 素材クリ ップ 2 1 1の数が多くなり、 素材トレィ 2 0 1の範囲内にすべてを表示できなく なった場合に、 素材クリヅプ 2 1 1をスクロールさせるとき、 使用者により操作 される。
なお、 編集の対象 (編集用テンポラリスペース 6にロードされた素材データ。 以下、 素材クリッブと称する。 ) とすることが可能なデ一夕のファイルは、 図 1 7に示すような. MOV, .AVIといった拡張子を有する動画像のファイル、 .BMP, . G IF , . JPG, .PNG, . PCTといった拡張子を有する静止画像のファイル、 又は. WAV, . AIFといった拡張子を有する音楽のファイルとすることができる。
素材トレィ 2 0 1のお側には、 再生画面 2 2 1が表示されている。 使用者によ り、 図示せぬポィンティングデバイスが操作され、 素材トレィ 2 0 1に表示され ている素材クリヅプ 2 1 1のうち、 所定のものが指定され、 再生ボ夕ン 2 3 1が 操作されると、 その指定された画像が、 再生画面 2 2 1に再生表示される。 この 時、 再生が進むにつれて、 再生位置表示ボタン 2 3 5は、 左側から右側に再生位 置に応じて、 その表示位置が移動する。
図 1 8にも示すように、 ポインタ 2 3 4 Lにより鬨始点を指定し、 ポインタ 2 3 4 Rにより、 終了点を指定することで、 動画像像の所定の範囲をトリミングす ることができる。 トリミングされた場合、 そのファイルのうちの、 トリミングさ れた画像データだけが、 実質的な編集対象の画像とされる。
指定範囲再生ポタン 2 3 2が操作されると、 このようにしてトリミングされた 範囲だけが再生画面 2 2 1に表示される。 巻戻しポタン 2 3 6が操作された場合、 再生画面 2 2 1の表示画像が時間的に、 新しい画像から古い画像の方向に卷戻し 表示される。 早送りポタン 2 3 7が操作された場合には、 再生画面 2 2 1に表示 されている画像が早送りされる。
ストーリ再生モードの状態でモードボ夕ン 2 3 3が操作されると、 モ一ドが編 集モードに変更され、 編集モードの状態において、 モードボタン 2 3 3が操作さ れると、 モードは、 ストーリ再生モードに変更される。
編集モードにおいて、 例えば、 再生ポタン 2 3 1が操作されると、 その時素材 トレイ 2 0 1の中から指定されている素材クリ ヅプ 2 1 1が再生画面 2 2 1に表 示されるが、 ストーリ再生モ一ドが設定されている状態において、 再生ボタン 2 3 1が操作されると、 後述するように、 出力トレィ 2 9 1に表示されている (編 集用テンポラリスペース 6に記録されているデータに対応する) 、 自動又は手動 で編集されたストーリ (シナリオ) が、 始めから終わりまで再生される。
マニュアルで (自動編集ではなく) 編集処理を行うとき、 使用者は、 素材トレ ィ 2 0 1に表示されている素材クリップ 2 1 1の中から、 所定のものを選択し、 図 1 9に示す画像トラック 3 0 1上の複数の画像表示部 3 0 1 Aの任意の位置に ドラッグアンドドロヅプすることで、 所望のシナリオ (ストーリ) を作成する。 一旦所定の画像表示部 3 0 1 Aにドラッグアンドドロヅプした画像 (素材クリヅ プ) は、 さらに他の位置の画像表示部 3 0 1 A上にドラッグアンドドロップする ことで移動させることが可能である。
出力ボタン 3 0 4は、 マニュアルで編集されたストーリに対応する動画像をュ 一ザ映像管理データペース 4に保存するとき、 操作される。
使用者は、 素材トレィ 2 0 1上に音楽デ一夕のファイルが存在する場合には、 そのファイルのアイコン (素材クリップ 2 1 1 ) を出力トレイ 2 9 1上の B G M トラヅク 3 0 2にドラヅグアンドドロップすることで、 その音声を B G Mとして 対応させることができる。 B G Mトラック 3 0 2上の音楽情報が割り当てられた 長さは、 その音楽情報の長さに対応している。 従って、 その音楽情報の長さが短 い場合には、 さらに別の音楽情報を B G Mドラッグ 3 0 2上にドラヅグアンドド ロヅプすることで割り当てることができる。
再生画面 2 2 1の右側には、 ボリュームポ夕ン 2 4 1、 色調ボ夕ン 2 4 2、 及 び再生速度ポタン 2 4 3が表示されている。 ボリュームボタン 2 4 1が操作され ると、 図 2 0に示すようなウインドウ 3 3 1がボリュームボタン 2 4 1の下に表 示される。 使用者は、 調整バー 3 3 2を操作することで、 編集対象とされている 音声の出力時の音量を調整することができる。
色調ボタン 2 4 2が操作されると、 図 2 1に示すようなウインドウ 3 4 1が、 色調ボタン 2 4 2の下に表示される。 この例においては、 使用者は、 調整バー 3 4 2を操作することで、 X線、 ハイコントラスト、 そのまま、 セピア、 又はモノ クロのうちのいずれかの色調を選択することができる。
再生速度ポ夕ン 2 4 3が操作されると、 図 2 2に示すようなウィンドウ 3 5 1 が、 再生速度ボタン 2 4 3の下に表示される。 使用者は、 調整バー 3 5 2を操作 することで、 画像の再生速度を速くしたり、 遅く したり、 調整することができる ( 再生速度ボ夕ン 2 4 3の下側には、 エフヱクト表示ボ夕ン 2 4 4が表示されて いる。 使用者は、 後述する図 2 3に表示されている選択ボタンアイコン 3 6 4、 又は図 2 4に表示されている選択ボタンアイコン 3 6 2を、 エフェクト表示ポ夕 ン 2 4 4にドラッグアンドドロップすることで、 そのエフェクトを、 再生画面 2 2 1に表示されている素材に対して、 割り当てることができる。
ボリュームポタン 2 1乃至エフヱクト表示ポタン 2 4 4のお側には、 特殊効 果トレイ 2 6 1が表示されている。 この特殊効果トレイ 2 6 1には、 タグ 2 7 1 — 1乃至 2 7 1—4が表示されている。
タグ 2 7 1— 2が選択されると、 図 2 3に示されるように、 テキストウインド ゥが表示される。 このウィンドウには、 編集対象とされている画像 3 6 1が表示 される。 フォン トポタン 3 6 2は、 エフェクトを付与するテキストのフォントを 選択するとき操作される。 テキスト入力ウィンドウ 3 6 3には、 使用者がキーボ ード 4を操作することで入力したテキストが表示される。 選択ボタンアイコン 3 6 4は、 テキスト (文字列) に対して付加するエフェクトを選択するとき操作さ れる。 スクロ一ルバ一 3 6 5は、 選択ボタンアイコン 3 6 4をスクロールさせる とき操作される。
選択ポタンアイコン 3 6 4のうち、 所定のものをエフェクト表示ボタン 2 4 4 上にドラヅグアンドドロップすることで、 テキスト入力ウインドウ 3 6 3にその 時入力表示されているテキストに対して、 選択ボタンアイコン 3 6 4で選択した テキストエフェクト (テキストアニメーション) を付加することができる。 選択 ボタンアイコン 3 6 4をエフェクト表示ボタン 2 4 4にドラッグアンドドロヅプ した後、 再生ポ夕ン 2 3 1を操作すると、 選択したテキストエフヱクトを付加し た画像が、 再生画面 2 2 1に直ちに表示される。 このようにして、 使用者は、 テ キストエフヱクトをリアルタイムで確認することができる。
図 2 3の例においては、 「斜め合体」 のテキストアニメーションが再生画面 2 2 1に表示されている。
図 2 4は、 タグ 2 7 1— 3が選択された場合の表示例を表している。 このタグ 2 7 1一 3が選択されると、 同図に示すように、 エフヱクトウインドウが表示さ れる。 このウィンドウには、 編集対象とされている画像 3 8 1が表示されるとと もに、 その下方にアニメーションエフェクトを選択するための選択ボタンアイコ ン 3 6 2が表示される。 スクロールバー 3 6 3は、 選択ボタンアイコン 3 6 2を スクロールさせるとき操作される。
この場合にも、 選択ボタンアイコン 3 6 2のうち、 所定のものをエフェクト表 示ポ夕ン 2 4 4上にドラヅグアンドドロヅプすることで、 所定のアニメーション エフヱクトを選択することができる。 この選択を行った後、 再生ボタン 2 3 1が 操作されると、 再生画面 2 2 1にアニメーションエフヱクトが付加された画像が リアルタイムで表示される。 図 2 4の例においては、 「ときめき」 のアニメーシ ヨンエフェクトが表示されている。
図 2 5は、 タグ 2 7 1— 4が選択された場合の表示例を表している。 この場合、 同図に示すように、 トランジシヨンウィンドウが表示される。 このウィンドウに は、 選択ボタンアイコン 3 9 1が表示され、 使用者は、 複数の選択ボタンアイコ ン 3 9 1の中から所定のものを選択することができる。 この選択が行われた場合、 表示部 3 9 3にその選択されたトランジシヨンに対応する模式的な画像が表示さ れる。 スクロールバー 3 9 2が操作された場合、 選択ボタンアイコン 3 9 1がス クロ一ルされる。
使用者は、 所定の選択ポタンアイコン 3 9 1を選択した後、 それを図 2 6に示 す画像トラック 3 0 1のトランジション表示部 3 0 1 Bにドラヅグアンドドロヅ プすることで、 その前後に隣接する画像表示部 3 0 1 Aに表示されている画像 (素材クリヅプ) に対してトランジションを付加することができる。
例えば、 ワイプのトランジシヨンが設定された場合、 図 2 7に示すように、 図 の左側に表示されている画像が徐々に右側に移動しながら、 次第に右側に表示さ れている画像を隠すようにして、 トランジシヨンが行われる。
夕グ 2 7 1— 1が選択されると、 図 2 8に拡大して示されているように、 自動 編集のためのシェ一力ウインドウが表示される。 このシェ一力ウィンドウには選 択ボタン 2 8 1— 1乃至 2 8 1— 5が表示されている。 この選択ボタン 2 8 1一 1乃至 2 8 1— 5には、 それそれ、 所定のシナリオ (ストーリ) が予め対応され ている。 各シナリオには、 それそれ予め設定された所定の音楽が対応されており、 その音楽は、 図 2 8の最も左側の選択ポタン 2 8 1— 1に対応するものが最もテ ンポの遅いものとされ、 最も右側の選択ポタン 2 8 1— 5に対応するものが、 最 も速く激しいものとされている。 それらの間の選択ポ夕ン 2 8 1— 2乃至 2 8 1 —4に対応する音楽は、 それそれ、 その中間のテンポの音楽とされている。
具体的には、 選択ボタン 2 8 1 - 1にはアンビエント音楽 (環境音楽) が、 選 択ボ夕ン 2 8 1— 2にはピアノ曲が、 選択ボタン 2 8 1— 3にはジャズ音楽が、 選択ポ夕ン 2 8 1— 4にはヒヅプホヅプ音楽が、 そして選択ボタン 2 8 1— 5に はテクノ調音楽が、 それそれ対応付けられている。
従って、 これらの音楽に対応して、 選択ポ夕ン 2 8 1— 1に対応するシナリオ を構成するシーンの数は比較的少ないもの (シーンの変化数が少ないもの) とさ れている。 これに対して、 選択ボタン 2 8 1— 5に対応されているシナリォは、 そのシーン数が多いもの (シーンの変化の回数が多いもの) とされている。 なお、 選択ボタン 2 8 1— 1乃至 2 8 1— 5に対応しているシナリオの長さは、 全て同 一とされ、 この例においては、 3 0秒とされている。
ループポタン 2 8 2は、 自動編集により生成する 3 0秒のシナリオが、 繰り返 し再生されることを前提とするものとするとき、 使用者により操作される。 テキ ストシェイクポ夕ン 2 8 3は、 テキスト (文字) をシェイクする時、 使用者によ り操作される。 このテキストシヱイクボ夕ン 2 8 3が操作されると、 ウィンドウ 2 8 4が表示され、 使用者は、 このウィンドウ 2 8 4に、 図示せぬキーボ一ドを 操作することで、 編集対象とする (テキストシヱイクする) テキスト (文字列) を入力することができる。 この例においては、 「頑張ろう」 、 「順子ちやん j 、 「ハッピー! !」 の 3つの文字列が入力表示されている。
シエイクポタン 2 8 5は、 シエイク (自動編集) を開始するとき、 使用者によ り操作される。 動画編集用サーバ 3が実行するシヱイク (自動編集) の処理の詳 細については、 図 4 1乃至図 4 3のフローチャートを参照して後述する。
シェイクボタン 2 8 5がクリヅクされて、 動画編集用サーバ 3がシエイクを実 行しているとき、 パーソナルコンピュータ 1は、 図 2 9に例を示す、 動画編集用 サーバ 3がシェイクを実行中であることを示す画面を表示する。 動画編集用サー バ 3のシェイクが終了したとき、 パーソナルコンピュータ 1は、 図 3 0に例を示 す、 動画編集用サーバ 3のシエイクが終了したことを示す画面を表示する。 動画編集用サーバ 3のシヱイクが終了したことを示す画面を表示している場合、 図示せぬキーボ一ドが操作されたとき、 パーソナルコンピュータ 1は、 図 3 1に 例を示す、 シェイクされた画像を再生、 又は保存するための確認画面を表示させ る。
図 3 1に示す確認画面には、 シェイクされた画像の再生を指示するボタン 4 0 1、 編集用テンポラリスペース 6に記録されているシヱイクされた画像の使用者 映像管理データべ一ス 4への記録を指示するポ夕ン 4 0 2、 及び再度シエイクを 実行するため図 1 4に例を示す状態に戻るボタン 4 0 3が配置されている。
次に、 パ一ソナルコンピュータ 1及び動画編集用サーバ 3による処理について 説明する。
図 3 2は、 パーソナルコンビュ一夕 1及び動画編集用サーバ 3による画像の編 集の全体の処理を説明するフローチヤ一ト 'ある。 ステップ S 1 1において、 動 画編集用サーバ 3の動画編集用プログラム 1 2は、 ィン夕ーネヅト 2を介して、 パーソナルコンピュータ 1から送信された、 ユーザ I D及ぴパスヮードのデータ を基に、 ログインの処理を実行する。 ステップ S 1 1の処理において、 パーソナ ルコンピュータ 1から送信された、 ユーザ I D及びパスヮードのデ一夕が正当で ないと判定された場合、 ステップ S 1 2以降の処理は、 スキップされ、 処理は終 了する。
ステップ S 1 1の処理において、 パーソナルコンピュータ 1から送信された、 ユーザ I D及びパスワードのデ一夕が正当であると判定された場合、 ステップ S 1 2に進み、 パーソナルコンピュータ 1のブラウザプログラム 1 1は、 動画編集 用サーバ 3から使用者が所有する素材データのサムネイルを受信して、 サムネィ ルを表示させる。
ステップ S 1 3において、 ポタン 1 1 2がクリヅクされたとき、 パーソナルコ ンピュー夕 1のブラウザプログラム 1 1は、 動画編集用サーバ 3に素材デ一夕を ァヅプロ一ドさせる処理を実行させる。
ステップ S 1 4において、 ポタン 1 1 3がクリヅククリヅクされたとき、 パー ソナルコンピュータ 1のブラウザプログラム 1 1は、 動画編集用サーバ 3に、 素 材データの属性の設定の処理を実行させる。 ステヅプ S 1 5において、 ボタン 1 6 2がクリヅクされたとき、 パーソナルコ ンピュー夕 1のブラウザプログラム 1 1は、 動画編集用サーバ 3に、 ユーザ映像 管理データペース 4に記録されている、 使用者が所有する素材デ一夕をロードさ せる処理を実行させる。
ステップ S 1 6において、 ボタン 1 7 2がクリヅクされたとき、 パーソナルコ ンピュー夕 1のブラウザプログラム 1 1は、 動画編集用サーバ 3に、 ユーザ映像 管理データペース 4に記録されている、 共有している素材デ一夕をロードさせる 処理を実行させる。
ステップ S 1 7において、 シェイクボタン 2 8 5がクリヅクされたとき、 パー ソナルコンピュータ 1のブラウザプログラム 1 1は、 動画編集用サ一バ 3に、 ス テヅプ S 1 5又はステップ S 1 6の処理でロードした素材データを基に、 自動編 集の処理を実行させる。
ステップ S 1 8において、 ボタン 4 0 1がクリヅクされたとき、 パーソナルコ ンピュ一夕 1のブラウザプログラム 1 1は、 動画編集用サーバ 3に、 ステップ S 1 7の自動編集の処理で生成した動画像を送信させ、 パーソナルコンビュ一夕 1 が動画像を表示する、 確認の処理を実行する。
ステツプ S 1 9において、 ボタン 4 0 2がクリヅクされたとき、 パーソナルコ ンピュ一夕 1は、 動画編集用サーバ 3に、 編集用テンポラリスペース 6に記録さ れている自動編集の処理で生成された動画像を、 ユーザ映像管理データベース 4 に記録させ、 処理は終了する。
このように、 動画編集用サーバ 3は、 パーソナルコンピュータ 1の要求に対応 して、 パーソナルコンピュータ 1の使用者が所有する素材デ一夕、 及ぴ共有して いる素材デ一夕などを基に、 自動編集して、 動画像を生成し、 生成した動画像を ユーザ映像管理データベース 4に、 使用者のユーザ I Dに対応させて記録させる ことができる。
次に、 図 3 2のステヅプ S 1 1の処理に対応する、 ログインの処理の詳細を図 3 3のフローチヤ一トを参照して説明する。 ステヅプ S 1 1 0 1において、 ブラ ゥザプログラム 1 1は、 図 6に示すボタン 1 0 3がクリックされたか否かを判定 し、 ポタン 1 0 3がクリヅクされていないと判定された場合、 ボタン 1 0 3がク リックされるまで、 ステップ S 1 1 0 1の処理を繰り返す。
ステツプ S 1 1 0 1において、 ボタン 1 0 3がクリヅクされたと判定された場 合、 ステツプ S 1 1 0 2に進み、 ブラウザプログラム 1 1は、 フィールド 1 0 1 に入力されたユーザ I Dを読み取る。 ステップ S 1 1 0 3において、 ブラウザプ ログラム 1 1は、 フィールド 1 0 2に入力されたパスヮードを読み取る。
ステップ S 1 1 0 4において、 ブラウザプログラム 1 1は、 ステップ S 1 1 0 2の処理で読み取ったユーザ I D、 及びステップ S 1. 1 0 3の処理で読み取った パスワードを、 インターネット 2を介して、 動画編集用サーバ 3に送信する。 ステップ S 2 1 0 1において、 動画編集プログラム 1 2は、 パーソナルコンビ ユー夕 1が送信したユーザ I D及びパスワードを受信する。 ステップ S 2 1 0 2 において、 動画編集プログラム 1 2は、 ユーザ情報管理データベース 7に記録さ れているユーザ I D及び対応するパスヮードを基に、 受信したユーザ I D及びパ スヮードが正当であるか否かを判定し、 受信したユーザ I D及びパスワードが正 当であると判定された場合、 ステヅプ S 2 1 0 3に進み、 ユーザ情報管理デ一夕 ペース 7がユーザ I Dに対応して記録されているディレクトリ情報を基に、 ユー ザ映像管理デ一夕ペース 4のユーザエリア (例えば、 所定のフォルダ) に口グイ ンして、 処理は終了する。
ステップ S 2 1 0 2において、 受信したユーザ I D及ぴパスヮードが正当でな いと判定された場合、 ステヅプ S 2 1 0 3の処理はスキヅプされ、 動画編集プロ グラム 1 2は、 ユーザ映像管理データベース 4へのアクセスを許可せず、 以下で 説明する処理は実行されない。
以上のように、 パーソナルコンピュータ 1が正当なユーザ I D及びパスヮード を送信したとき、 動画編集用サーバ 3は、 ユーザ映像管理データベース 4の所定 のユーザエリアにアクセスできるようになる。 パーソナルコンピュータ 1が正当 でないユーザ I D及びパスワードを送信したとき、 動画編集用サーバ 3は、 以後 の処理を実行せず、 パーソナルコンピュータ 1によるアクセスは拒絶される。 次に、 図 3 2のステップ S 1 2の処理に対応する、 使用者が所有する素材デー 夕のサムネイルの表示の処理の詳細を図 3 4のフローチャートを参照して説明す る。 ステップ S 2 2 0 1において、 動画編集プログラム 1 2は、 ユーザ映像管理 デ一夕ペース 4の口グインしたユーザエリアから、 ユーザ I Dに対応するフアイ ル名を読み出し、 読み出したファイル名に対応するファイルに格納されている素 材データを読み込む。
ステップ S 2 2 0 2において、 動画編集プログラム 1 2は、 ステップ S 2 2 0 1の処理で読み込んだファイルに格納されているデータを基に、 サムネイルを生 成する。 ステヅプ S 2 2 0 3において、 動画編集プログラム 1 2は、 ステヅプ S 2 2 0 2の処理で生成したサムネイルをィン夕ーネット 2を介してパーソナルコ ンピュー夕 1に送信する。
ステップ S 1 2 0 1において、 ブラウザプログラム 1 1は、 動画編集用サーバ 3が送信したサムネイルを受信する。 ステヅプ S 1 2 0 2において、 ブラウザプ ログラム 1 1は、 ステップ S 1 2 0 1の処理で受信したサムネイルを、 表示して、 処理は終了する。
このように、 パーソナルコンピュータ 1は、 使用者がユーザ映像管理データべ ース 4に記録させている動画像のデータなどのサムネイルを表示させることがで きる。
次に、 図 3 2のステヅプ S 1 3の処理に対応する、 動画像のデ一夕などのァヅ ブロードの処理の詳細を図 3 5のフローチヤ一トを参照して説明する。 ステヅプ S 1 3 0 1において、 ブラゥザプログラム 1 1は、 図 8に示すダイアログボヅク スを表示する。 ステップ S 1 3 0 2において、 ブラウザプログラム 1 1は、 フィ —ルド 1 3 1に入力された、 アツブロードする動画像などのデータが格納されて いるファイルのファイル名を読み込む。
ステップ S 1 3 0 3において、 ブラウザプログラム 1 1は、 送信を指示するポ 夕ン 1 3 2がクリ ヅクされたか否かを判定し、 ボタン 1 3 2がクリックされてい ないと判定された場合、 ステヅプ S 1 3 0 2に戻り、 ファイル名の読み込みの処 理を繰り返す。
ステップ S 1 3 0 3において、 ボタン 1 3 2がクリヅクされたと判定された場 合、 ステップ S 1 3 0 4に進み、 ブラウザプログラム 1 1は、 ステップ S 1 3 0 2の処理で読み取ったファイル名のファイルを開いて、 ファイルに格納されてい るデータをィン夕ーネット 2を介して、 動画編集用サーバ 3に送信する。 ステップ S 2 3 0 1において、 動画編集プログラム 1 2は、 ブラウザプログラ ム 1 1が送信したデータを受信する。 ステップ S 2 3 0 2において、 動画編集プ ログラム 1 2は、 受信したデータにデータ I Dを割り当てて、 ユーザ映像管理デ 一夕ベース 4に、 ブラウザプログラム 1 1の使用者に対応するユーザエリア (ュ 一ザ情報管理データベース 7がユーザ I Dに対応させて記録しているディレクト リ情報により特定される) に素材デ一夕として記録させる。
ステヅプ S 2 3 0 3において、 動画編集プログラム 1 2は、 ユーザ映像管理デ 一夕ベース 4に、 図 4を参照して説明した、 生成したデ一夕 I Dと共に、 そのデ 一夕 I Dに対応する属性を記録させて、 ユーザ映像管理データベース 4に記録さ れているデータを更新させ処理は終了する。
このように、 動画編集用サーバ 3は、 ュ一ザ映像管理データベース 4に、 パー ソナルコンピュータ 1から受信した動画像のデ一夕などを記録させると共に、 生 成したデータ I D (素材データに対応する) と属性を記録させることができる。 次に、 図 3 2のステップ S 1 4の処理に対応する、 素材データの属性の設定の 処理の詳細を図 3 6のフローチャートを参照して説明する。 ステップ S 1 4 0 1 において、 ブラウザプログラム 1 1は、 図 7に示すサムネイル表示フィールド 1 2 1— 1乃至 1 2 1— 9のいずれかを選択して、 属性を編集する素材データを選 択する。
ステップ S 1 4 0 2において、 ブラウザプログラム 1 1は、 素材データの属性 を編集する処理を実行させるためのボタン 1 1 3がクリックされたか否かを判定 し、 ボタン 1 1 3がクリヅクされていないと判定された場合、 ステップ S 1 4 0 1に戻り、 素材デ一夕の選択の処理を繰り返す。
ステヅブ S 1 4 0 2において、 ボタン 1 1 3がクリヅクされたと判定された場 合、 ステヅプ S 1 4 0 3に進み、 ブラウザプログラム 1 1は、 図 9に示すデ一夕 の属性を編集するためのダイアログボックスを表示する。 ステヅプ S 1 4 0 4に おいて、 ブラウザプログラム 1 1は、 フィールド 1 4 1、 フィールド 1 4 2、 お よびフィールド 1 4 3などに設定された、 素材データの属性を読み取る。
ステヅプ S 1 4 0 5において、 ブラウザプログラム 1 1は、 属性の送信を開始 させるポ夕ン 1 4 8がクリックされたか否かを判定し、 属性の送信を開始させる ボタン 1 4 8が,クリヅクされていないと判定された場合、 ステップ S 1 4 0 4に 戻り、 素材デ一夕の属性を読み込む処理を繰り返す。
ステップ S 1 4 0 5において、 属性の送信を開始させるポタン 1 4 8がクリヅ クされたと判定された場合、 ステップ S 1 4 0 6に進み、 ブラウザプログラム 1 1は、 デ一夕 I Dと共に、 ステヅプ S 1 4 0 4の処理で読み取った素材デ一夕の 属性を、 イン夕一ネット 2を介して、 動画編集用サーバ 3に送信する。 - ステヅプ S 2 4 0 1において、 動画編集プログラム 1 2は、 パーソナルコンビ ユー夕 1が送信した、 デ一夕 I Dと共に、 素材デ一夕の属性を受信する。 ステヅ プ S 2 4 0 2において、 動画編集プログラム 1 2は、 データ I Dに対応する、 受 信した素材データの属性をユーザ映像管理データベース 4に登録する。
ステップ S 2 4 0 3において、 動画編集プログラム 1 2は、 素材デ一夕の属性 を基に、 属性が送信された素材データを共有するか否かを判定し、 属性が送信さ れた素材デ一夕を共有すると判定された場合、 ステップ S 2 4 0 4に進み、 素材 データに対応するデ一夕 I D、 ユーザ I D、 及び有料フラグなどを共有映像管理 データベース 5に登録して、 処理は終了する。 共有する旨の属性が登録された素 材データは、 その素材データを所有していない他の使用者のパーソナルコンビュ 一夕 1から読み出され、 利用されることが可能になる。
ステップ S 2 4 0 3において、 属性が送信された素材デ一夕を共有しないと判 定された場合、 共有映像管理データベース 5への登録の処理は必要ないので、 ス テツブ S 2 4 0 4の処理はスキヅプされ、 処理は終了する。
以上のように、 動画編集用サーバ 3は、 パーソナルコンピュータ 1から受信し た素材デ一夕の属性をユーザ映像管理データベース 4に登録すると共に、 共有が 設定されている素材デ一夕に対応するデータ I D、 ユーザ I D、 及び有料フラグ などを共有映像管理データベース 5に登録することができる。
次に、 図 3 2のステップ S 1 5の処理に対応する、 使用者が所有する素材デー 夕のロードの処理の詳細を図 3 7のフローチャートを参照して説明する。 ステヅ プ S 1 5 0 1において、 ブラウザプログラム 1 1は、 ユーザ I Dと共に使用者の 素材データのロードの要求を、 インターネヅ ト 2を介して、 動画編集用サーバ 3 に送信する。 ステヅプ S 2 5 0 1において、 動画編集プログラム 1 2は、 インターネヅト 2 を介して、 パーソナルコンピュータ 1から送信された、 ユーザ I Dと使用者の素 材デ一夕のロードの要求を受信する。 ステップ S 2 5 0 2において、 動画編集プ ログラム 1 2は、 受信したユーザ I Dがユーザ情報管理データベース 7に記録さ れているか否かをチヱックする。 受信したユーザ I Dがユーザ情報管理データべ ース 7に記録されていないとき、 動画編集用サーバ 3は、 処理を終了させ、 以下 の処理を実行しない。
受信したユーザ I Dがユーザ情報管理デ一夕べ一ス 7に記録されているとき、 ステップ S 2 5 0 3に進み、 動画編集プログラム 1 2は、 ユーザ情報管理データ ベース 7からユーザ I Dに対応するディレクトリ情報を読み出し、 読み出したデ ィレクトリ情報を基にユーザ映像管理データペース 4から使用者が所有する素材 デ一夕をデ一夕 I Dと共に読み込む。 ステップ S 2 5 0 4において、 動画編集プ ログラム 1 2は、 ステップ S 2 5 0 3の処理で読み込まれた素材データを基に、 サムネイルを生成する。
ステヅプ S 2 5 0 5において、 動画編集プログラム 1 2は、 データ I Dに対応 させて生成したサムネイルをィン夕ーネヅ ト 2を介して、 パーソナルコンビユー 夕 1に送信する。
ステヅプ S 1 5 0 2において、 ブラウザプログラム 1 1は、 動画編集用サーバ 3が送信したデータ I Dとサムネイルを受信する。 ステヅプ S 1 5 0 3において、 ブラウザプログラム 1 1は、 図 1 1に例を示す画面にサムネイルを表示する。 ステップ S 1 5 0 4において、 ブラウザプログラム 1 1は、 サムネイル表示フ ィ一ルド 1 6 1— 1乃至 1 6 1— 9の選択を基に、 素材デ一夕の選択を読み込む。 ステヅプ S 1 5 0 5において、 ブラウザプログラム 1 1は、 選択したデータを編 集用テンポラリスペース 6の作業用のスペースにロードさせるポ夕ン 1 6 2がク リックされたか否かを判定し、 ボタン 1 6 2がクリックされていないと判定され た場合、 ステップ S 1 5 0 4に戻り、 素材デ一夕の選択を読み込む処理を繰り返 す。
ステヅプ S 1 5 0 5において、 ボタン 1 6 2がクリヅクされたと判定された場 合、 ステップ S 1 5 0 6に進み、 ブラウザプログラム 1 1は、 インターネヅ ト 2 を介して、 選択された素材デ一夕のデ一夕 I Dを動画編集用サーバ 3に送信する t ステヅプ S 2 5 0 6において、 動画編集プログラム 1 2は、 パーソナルコンビ ユー夕 1から送信されたデ一夕 I Dを受信する。 ステップ S 2 5 0 7において、 動画編集プログラム 1 2は、 編集用テンポラリスペース 6に作業用のスペースを 確保する。 ステップ S 2 5 0 7の処理で確保される編集用テンポラリスペース 6 の作業用のスペースは、 素材デ一夕をロード (記録) し、 素材データを編集する のに十分な大きさのメモリ空間である。
ステヅプ S 2 5 0 8において、 動画編集プログラム 1 2は、 ユーザ映像管理デ 一夕べ一ス 4から、 受信したデ一夕 I Dに対応する使用者が所有する素材データ を読み込み、 編集用テンポラリスペース 6の作業用のスペースにロードする。 ステヅプ S 2 5 0 9において、 動画編集プログラム 1 2は、 選択された使用者 が所有する素材データをロードした旨のデータを、 ィンターネット 2を介して、 パーソナルコンピュータ 1に送信する。
ステップ S 1 5 0 7において、 ブラウザプログラム 1 1は、 選択された使用者 が所有する素材データをロードした旨のデータを受信する。 ステヅプ S 1 5 0 8 において、 ブラウザプログラム 1 1は、 図 1 2に示す画面により、 選択された使 用者が所有するデ一夕を口一ドした旨を表示し、 処理は終了する。
このように、 動画編集用サーバ 3は、 パーソナルコンピュータ 1の使用者が選 択した素材デ一夕を編集用テンポラリスペース 6の作業用のスペースに口一ドす る。 編集用テンポラリスペース 6の作業用のスペースに選択されたデータがロー ドされたとき、 ブラウザプログラム 1 1は、 その素材デ一夕をロードした旨を表 示する。
次に、 図 3 2のステップ S 1 5の他の処理に対応する、 使用者が所有する全て の素材デ一夕のロードの処理の詳細を図 3 8のフローチャートを参照して説明す る。 ステップ S 1 6 0 1乃至ステップ S 1 6 0 3の処理は、 図 3 7に示すステツ プ S 1 5 0 1乃至ステヅブ S 1 5 0 3の処理とそれそれ同様であるので、 その説 明は省略する。
ステップ S 1 6 0 4において、 使用者が所有する全ての素材データをロードさ せるボタン 1 6 3がクリヅクされたか否かを判定し、 ボタン 1 6 3がクリヅクさ れていないと判定された場合、 ステップ S 1 6 0 4の処理に戻り、 判定の処理を 繰り返す。
ステップ S 1 6 0 4において、 ボタン 1 6 3がクリヅクされたと判定された場 合、 ステツブ S 1 6 0 5に進み、 ブラウザプログラム 1 1は、 ィン夕ーネヅ ト 2 を介して、 全ての素材デ一夕のロードの要求を動画編集用サーバ 3に送信する。 ステヅプ S 2 6 0 6において、 動画編集プログラム 1 2は、 パーソナルコンビ ュ一タ 1から送信された、 全ての素材デ一夕のロードの要求を受信する。 ステツ プ S 2 6 0 7において、 動画編集プログラム 1 2は、 編集用テンポラリスペース 6に作業用のスぺ一スを確保する。 ステヅプ S 2 6 0 8において、 動画編集プロ グラム 1 2は、 ユーザ映像管理データペース 4から、 使用者が所有する全ての素 材デ一夕を読み込み、 編集用テンポラリスペース 6の作業用のスペースにロード する。
ステップ S 2 6 0 9において、 動画編集プログラム 1 2は、 使用者が所有する 全ての素材デ一夕をロードした旨のデ一夕を、 インターネヅト 2を介して、 パー ゾナルコンビュー夕 1に送信する。
ステヅプ S 1 6 0 6において、 ブラウザプログラム 1 1は、 使用者が所有する 全ての素材デ一夕をロードした旨のデ一夕を受信する。 ステップ S 1 6 0 7にお いて、 ブラウザプログラム 1 1は、 図 1 2に示す画面により、 使用者が所有する 全ての素材デ一夕をロードした旨を表示し、 処理は終了する。
このように、 パーソナルコンピュータ 1の要求に対応して動画編集用サーバ 3 は、 パーソナルコンピュータ 1の使用者が所有する全ての素材データを編集用テ ンポラリスペース 6の作業用のスペースにロードする。 編集用テンポラリスべ一 ス 6の作業用のスペースに使用者が所有する全ての素材データがロードされたと き、 パーソナルコンビュ一夕 1は、 その旨を表示する。
次に、 図 3 2のステップ S 1 6の処理に対応する、 共有している素材データの ロードの処理の詳細を図 3 9のフローチャートを参照して説明する。 ステップ S 1 7 0 1において、 ブラウザプログラム 1 1は、 ユーザ I Dと共に共有している 素材デ一夕のロードの要求を、 インタ一ネット 2を介して、 動画編集用サーバ 3 に送信する。 ステヅプ S 2 7 0 1において、 動画編集プログラム 1 2は、 インターネヅト 2 を介して、 パーソナルコンピュータ 1から送信された、 ユーザ I Dと共に共有し ている素材データのロードの要求を受信する。 ステップ S 2 7 0 2において、 動 画編集プログラム 1 2は、 受信したユーザ I Dがユーザ情報管理データベース 7 に記録されているか否かをチェックする。 受信したユーザ I Dがユーザ情報管理 データベース 7に記録されていないと判定されたとき、 動画編集プログラム 1 2 は、 処理を終了させ、 以後の処理を実行しない。
ステップ S 2 7 0 2において、 受信したユーザ I Dがユーザ情報管理デ一夕べ ース 7に記録されていると判定されたとき、 ステップ S 2 7 0 3に進み、 動画編 集プログラム 1 2は、 共有映像管理デ一夕ペース 5から共有している素材デ一夕 のデータ I Dを読み出し、 読み出したデ一夕 I Dを基にユーザ映像管理データべ —ス 4から共有している素材データを読み込む。 すなわち、 共有している素材デ 一夕を読み込む処理において、 動画編集プログラム 1 2は、 デ一夕 I Dに対応す る素材データを、 ユーザ映像管理データベース 4の、 他の使用者に対応するュ一 ザェリァから読み込む。
ステップ S 2 7 0 4において、 動画編集プログラム 1 2は、 ステヅプ S 2 7 0 3の処理で読み込まれた素材デ一夕を基に、 サムネイルを生成する。
ステヅプ S 2 7 0 5において、 動画編集プログラム 1 2は、 デ一夕 I Dに対応 させて生成したサムネイルを、 インターネヅト 2を介して、 パーソナルコンビュ 一夕 1に送信する。
ステヅプ S 1 7 0 2において、 ブラウザプログラム 1 1は、 動画編集用サーバ 3が送信したデータ I Dと共有している素材デ一夕のサムネイルを受信する。 ス テヅプ S 1 7 0 3において、 ブラウザプログラム 1 1は、 図 1 3に例を示す画面 に共有している素材データのサムネイルを表示する。
ステップ S 1 7 0 4において、 ブラウザプログラム 1 1は、 サムネイル表示フ ィールド 1 7 1 _ 1乃至 1 7 1— 9の選択を基に、 素材デ一夕の選択を読み込む < ステップ S 1 7 0 5において、 ブラウザプログラム 1 1は、 選択した素材データ を編集用テンポラリスペース 6の作業用のスペースにロードさせるボタン 1 7 2 がクリックされたか否かを判定し、 ボタン 1 7 2がクリックされていないと判定 された場合、 ステップ S 1 7 0 4に戻り、 素材データの選択を読み込む処理を繰 り返す。
ステップ S 1 7 0 5において、 ポタン 1 7 2がクリヅクされたと判定された場 合、 ステヅプ S 1 7 0 6に進み、 ブラウザプログラム 1 1は、 インターネッ ト 2 を介して、 選択された素材データに対応するデ一夕 I Dを動画編集用サーバ 3に 送信する。
ステップ S 2 7 0 6において、 動画編集プログラム 1 2は、 パーソナルコンビ ユー夕 1から送信されたデータ I Dを受信する。 ステヅブ S 2 7 0 7において、 動画編集プログラム 1 2は、 デ一夕 I Dに対応する有料フラグを共有映像管理デ 一夕ベース 5から読み出して、 ロードするデ一夕が有料か否かを判定し、 有料で あると判定された場合、 ステップ S 2 7 0 8に進み、 ユーザ映像管理デ一夕べ一 ス 4からデータ I Dに対応する料金を読み出して、 ユーザ情報管理データベース 7のサービス利用料を更新して課金する。
ステップ S 2 7 0 7において、 有料でないと判定された場合、 課金の処理は必 要ないので、 ステップ S 2 7 0 8の処理はスキヅプされ、 処理はステップ S 2 7 0 9に進む。
ステヅプ S 2 7 0 9において、 動画編集プログラム 1 2は、 編集用テンポラリ スペース 6に作業用のスペースを確保する。 ステヅプ S 2 7 1 0において、 動画 編集プログラム 1 2は、 ユーザ映像管理データベース 4から、 受信したデ一夕 I Dに対応する共有している素材データを読み込み、 編集用テンポラリスペース 6 の作業用のスペースにロードする。
ステヅプ S 2 7 1 1において、 動画編集プログラム 1 2は、 選択された共有し ている素材デ一夕をロードした旨のデ一夕を、 イン夕一ネヅト 2を介して、 パー ソナルコンピュータ 1に送信する。
ステップ S 1 7 0 7において、 ブラウザプログラム 1 1は、 選択された共有し ている素材デ一夕をロードした旨のデ一夕を受信する。 ステヅプ S 1 7 0 8にお いて、 ブラウザプログラム 1 1は、 選択された共有している素材デ一夕をロード した旨を表示し、 処理は終了する。
このように、 動画編集用サーバ 3は、 パーソナルコンピュータ 1の使用者が選 択した共有している素材データを、 編集用テンポラリスペース 6の作業用のスぺ —スにロードして、 その素材データが有料のとき、 課金の処理を実行する。 編集 用テンポラリスペース 6の作業用のスペースに選択された、 共有している素材デ 一夕がロードされたとき、 パーソナルコンピュータ 1は、 その素材デ一夕をロー ドした旨を表示する。
次に、 図 3 2のステップ S 1 7の処理に対応する、 自動編集の処理の詳細を図 4 0のフローチャートを参照して説明する。 ステヅプ S 1 8 0 1において、 ブラ ゥザプログラム 1 1は、 ウィンドウ 2 8 4に入力されたテキストを読み込む。 ス テヅプ S 1 8 0 2において、 ブラウザプログラム 1 1は、 選択ボ夕ン 2 8 1— 1 乃至 2 8 1— 5のいずれかの選択、 ループポ夕ン 2 8 2、 又はテキストシエイク ポタン 2 8 3の選択などの自動編集の設定を読み込む。
ステップ S 1 8 0 3において、 ブラウザプログラム 1 1は、 シェイクボタン 2 8 5がクリヅクされたか否かを判定し、 シエイクボ夕ン 2 8 5がクリヅクされて いないと判定された場合、 ステップ S 1 8 0 1に戻り、 テキストの読み込みおよ び設定の読み込みの処理を繰り返す。
ステップ S 1 8 0 3において、 シェイクボタン 2 8 5がクリヅクされたと判定 された場合、 ステップ S 1 8 0 4に進み、 ブラウザプログラム 1 1は、 ステップ S 1 8 0 1の処理で読み込んだテキスト、 及びステヅプ S 1 8 0 2の処理で読み 込んだ自動編集の設定を、 イン夕一ネット 2を介して、 動画編集用サーバ 3に送 信する。
ステップ S 2 8 0 1において、 動画編集プログラム 1 2は、 パーソナルコンビ ユー夕 1が送信したテキスト及び自動編集の設定を受信する。 ステツプ S 2 8 0 2において、 動画編集プログラム 1 2は、 インターネヅト 2を介して、 パーソナ ルコンピュータ 1に自動編集の処理中を示す画面のデータを送信する。
ステップ S 1 8 0 5において、 ブラウザプログラム 1 1は、 動画編集用サーバ 3が送信した自動編集の処理中を示す画面のデータを受信する。 ステップ S 1 8 0 6において、 ブラウザプログラム 1 1は、 図 2 9に例を示す、 自動編集の処理 中を示す画面を表示する。
ステップ S 2 8 0 3において、 動画編集プログラム 1 2は、 シェ一力処理を実 行する。 シヱ一力処理の詳細は、 図 4 1乃至図 4 3のフ口一チャートを参照して 後述する。
ステップ S 2 8 0 4において、 動画編集プログラム 1 2は、 シェ一力処理によ り生成された動画像のデ一夕を、 編集用テンポラリスペース 6の作業用のスぺー スに 1つのファイルとして保存する。 ステヅプ S 2 8 0 5において、 動画編集ブ ログラム 1 2は、 インターネヅト 2を介して、 パーソナルコンピュータ 1に自動 編集の処理を終了した旨を示す画面のデータを送信する。
ステップ S 1 8 0 5において、 ブラウザプログラム 1 1は、 動画編集用サーバ 3が送信した自動編集の処理を終了した旨を示す画面のデ一夕を受信する。 ステ ヅプ S 1 8 0 6において、 ブラウザプログラム 1 1は、 図 3 0に例を示す、 自動 編集の処理を終了した旨を示す画面を表示し、 処理は終了する。
このように、 パーソナルコンピュータ 1は、 動画編集用サーバ 3に自動編集の 処理を実行させることができる。
次に、 図 4 1乃至図 4 3のフローチャートを参照して、 図 4 0のステップ S 2 8 0 3のシヱ一力処理 (自動編集処理) の詳細について説明する。 なお、 以下の 処理は、 特に、 説明しない限り、 基本的に動画編集プログラム 1 2により実行さ れる。 最初にステヅプ S 5 1において、 編集用テンボラリスペース 6の作業用の スペースにロードされている素材デ一夕を素材クリップとして読み込み処理が実 行される。 すなわち、 上述したように、 動画編集プログラム 1 2は、 ユーザ映像 管理データベース 4から使用者により指定された素材デ一夕などを自動編集処理 の対象 (素材クリップ) として編集用テンポラリスペース 6の作業用のスペース にロードしている。
なお、 この時取り込まれる素材データは、 ユーザ映像管理データベース 4に記 録されているものだけでなく、 インターネット 2を介して、 図示せぬ W e bサー バから取り込まれたものや、 ドライブ 4 2により磁気ディスク 6 1、 光ディスク 6 2、 光磁気ディスク 6 3、 又は半導体メモリ 6 4などより取り込まれたものと することも可能である。
次に、 ステップ S 5 2に進み、 動画編集プログラム 1 2は、 シェイク対象とし て、 テキストが受信されていれば、 その受信されたテキストを取り込む処理を実 行する。 すなわち、 使用者は、 自動編集処理を行うとき、 夕グ 2 7 1— 1を操作 して、 シエイカーウィンドウを表示させる (図 2 8 ) 。 そしてテキストシェイク を行う場合、 使用者は、 さらに、 テキストシヱイクボタン 2 8 3を操作する。 こ れにより、 図 2 8に示すように、 ウィンドウ 2 8 4が表示される。 この時、 使用 者は、 キーボードなどを操作して、 シヱイクすべきテキストを入力する。 パーソ ナルコンピュータ 1はこのテキストを取り込み、 ウィンドウ 2 8 4に表示させる ( 入力されたテキストは、 シヱ一力処理の実行に先立って、 図 2 0のステヅプ S 2 8 0 1の処理で動画編集用サーバ 3に受信されている。
また、 使用者は、 5つの選択ボタン 2 8 1— 1乃至 2 8 1— 5から 1つを指定 する。 この選択ボタン 2 8 1— 1乃至 2 8 1— 5には、 それそれ所定のシナリオ (動画編集用サーバ 3に記録されている。 ) が予め対応されており、 この選択ボ タン 2 8 1を選択することで、 そのシナリオを選択することになる。 動画編集プ ログラム 1 2は、 選択ボタン 2 8 1の選択に対応したデ一夕を図 2 0のステップ S 2 8 0 1の処理で受信している。
そこで、 動画編集プログラム 1 2は、 ステップ S 5 3において、 選択ボタン 2 8 1— 1乃至 2 8 1— 5の選択の設定を読み取る処理を実行する。
例えば、 選択ポタン 2 8 1 - 1には、 図 4 4 Aに示すようなシナリオが対応さ れている。 このシナリオは、 シーン 1乃至シーン 4の 4つのシーンにより構成さ れている。 シーン 1乃至シーン 4は、 それそれ時間 T 1乃至 T 4の長さを有して いる。 そして、 この例の場合、 シーン 1には、 アニメーション効果が付加され、 シーン 2には、 モノクロの色調整処理が行われる。 そしてシーン 1とシーン 2の 間には、 トランジシヨンが付加される。 さらにこのシナリオには、 音楽 M 1が対 応されている。
その詳細は後述するが、 動画編集プログラム 1 2は、 素材トレィ 2 0 1に表示 された素材クリヅブの画像情報の中から所定のものをランダムに選択して、 シー ン 1乃至シーン 4に割り当てる処理を実行する。 その結果、 この予め用意された シナリオに沿った編集処理が、 動画編集プログラム 1 2により、 自動的に行われ ることになる。
図 4 4 Bは、 選択ボタン 2 8 1一 2に対応されているシナリオを表している。 このシナリォは、 シーン 1乃至シーン 5の 5つのシーンにより構成されており、 それそれのシーンの長さは、 T 1 1乃至 T 1 5とされている。 シーン 2にはセピ ァ色、 シーン 3にはランダム効果、 シーン 4とシーン 5の間にはトランジシヨン が付加されている。 そして、 音楽は、 M 2とされている。
図示は省略するが、 このようなシナリオが選択ボタン 2 8 1— 3乃至 2 8 1— 5にも対応され、 予め用意されている。
選択ボ夕ン 2 8 1— 1乃至 2 8 1— 5の選択の設定は、 シヱ一力処理の実行に 先立って、 図 2 0のステップ S 2 8 0 1の処理で動画編集用サーバ 3に受信され ている。
ステヅプ S 5 4において、 動画編集プログラム 1 2は、 ループの設定を読み取 る処理を実行する。 すなわち、 使用者は、 編集して得られたシナリオを連続して 繰り返し再生することを前提とするとき、 ループボ夕ン 2 8 2を操作する。 動画 編集プログラム 1 2は、 ループポタン 2 8 2の設定に対応したデ一夕を図 2 0の ステヅプ S 2 8 0 1の処理で受信している。 この操作が行われたとき、 ステップ S 5 4において、 動画編集プログラム 1 2は、 ループボタン 2 8 2の設定に対応 したデータを記憶する。
例えば、 選択ボタン 2 8 1— 1に対応されているシナリオは、.基本的に図 4 4 Aに示すように構成されているのであるが、 ル一プボ夕ン 2 8 2が操作されない 場合の (連続して繰り返し再生しないことを前提とする) シーンは、 より正確に は、 例えば図 4 5 Aに示すように構成されている。 すなわち、 シーン 1 ( SC 1 ) の冒頭には、 フヱードインする部分 SC 1, が形成されており、 最後のシーン 4 ( SC 4 ) には、 フェードアウトする部分 SC 4, が形成されている。 また、 音楽 M 1にも、 その最後には、 無音部分 M l ' が形成されている。
従って、 図 4 5 Aに示すように構成されているシナリオに基づいて編集された 情報を、 敢えて連続して繰り返し再生すると、 図 4 5 Bに示すようになる。 すな わち、 フヱ一ドインの部分 SC 1, により再生が開始され、 シーン 1、 シーン 2、 シーン 3、 シーン 4が再生された後、 フヱードアウトの部分 SC 4, により、 1回 目の再生が終了する。 そしてそれに続いて、 再ぴ、 フェードインのシーン SC 1, の画像の再生が開始され、 シーン 1、 シーン 2、 シーン 3、 シーン 4と再生され、 再びフェードアウト部分 SC 4, が表示される。 音楽も、 1回目の再生と 2回目の 再生の境界部分 Aにおいては、 無音部分 M l, が再生される。 従って、 視聴者は、 境界部分 Aにおいて、 一旦再生が終了したことを容易に認識することができる。 これに対して、 選択ポタン 2 8 1— 1が選択された後、 さらにループポタン 2 8 2も操作された場合には、 図 4 5 Cに示すようなシナリオが選択される。
このシナリオは、 シーン 1乃至シーン 4の 4つのシーンにより構成されている が、 シーン 1の先頭と、 シーン 4の最後は、 シーン 4に続けて、 シーン 1が再生 されたとしても、 その変化が、 例えば、 シーン 1 とシーン 2との切り替え、 或い は、 シーン 2とシーン 3の切り替え、 さらには、 シーン 3とシーン 4の切り替え のタイミングと同様に、 シーンは変わるが、 1つのシナリオが終了したと認識さ れないような構成とされている。 すなわち、 単に、 画面が切り替えられたに過ぎ ないと認識され得るような構成とされている。
同様に、 音楽 M 1の先頭から終端部までの再生に続けて、 再び音楽 M lを連続 して再生したとしても、 その部分において、 シーンが終了したと認識されないよ うな構成とされている。
その結果、 図 4 5 Dに示すように、 シーン 1乃至シーン 4に続けて、 再ぴシ一 ン 1乃至シーン 4が連続して再生されたとしても、 その境界部分 Aにおいて、 視 聴者が 1回目の再生が終了し、 2回目の再生が鬨始されたと、 直感的に認識する 可能性は少ない。
このように、 動画編集プログラム 1 2は、 選択ボタン 2 8 1— 1乃至 2 8 1— 5に対応して、 連続して繰り返し再生されないことを前提とするシナリオと、 連 続して繰り返し再生することを前提とするシナリオの 2つのシナリオを有してい る。 そして、 ル一ブボタン 2 8 2が操作されない場合、 前者が選択され、 操作さ れた場合、 後者が選択される。
次に、 ステップ S 5 5において、 動画編集プログラム 1 2は、 ループが指定さ れているか否か、 すなわち、 ループポタン 2 8 2が操作されたか否かを判定する c ループが指定されていると判定された場合、 ステップ S 5 6に進み、 動画編集プ ログラム 1 2は、 選択ボ夕ン 2 8 1— 1乃至 2 8 1— 5のうち、 操作されたもの に対応するループ用のシナリオを選択する。 これに対して、 ステップ S 5 5にお いて、 ループが指定されていないと判定された場合、 ステップ S 5 7において、 動画編集プログラム 1 2は、 選択ボタン 2 8 1— 1乃至 2 8 1— 5のうち、 選択 されたものに対応する非ループ用のシナリォを選択する。
ステヅプ S 5 6、 又はステップ S 5 7の処理の後、 ステップ S 5 8に進み、 動 画編集プログラム 1 2は、 ステップ S 5 1の処理で読み込んだ素材クリヅプのそ れそれに、 I D (識別番号) を割り当てる。 そしてステップ S 5 9において、 動 画編集プログラム 1 2は、 素材クリップのうちの 1つを乱数で選択する。 換言す れば、 ステップ S 5 8の処理で割り当てた I Dの中から 1つの I Dをランダムに 選択することで、 1つの素材クリヅプが選択される。
ステップ S 6 0において、 動画編集プログラム 1 2は、 ステップ S 5 9の処理 で選択された素材クリヅブをステップ S 5 6、 又はステップ S 5 7の処理で選択 されたシナリオ中の 1つのシーン (今の場合、 最初のシーン) に対応させる。 ステップ S 6 1において、 全てのシーンに対する素材クリップの対応付け処理 が終了したか否かが判定され、 まだ終了していない場合、 ステップ S 5 9に戻り、 それ以降の処理が繰り返し実行される。 このようにして、 例えば、 図 4 4 Aに示 すシーン 1、 シーン 2、 シーン 3、 シーン 4に対して、 それそれ所定の素材クリ ップが対応付けされる。
ステヅプ S 6 1において、 全てのシーンに対する対応付け処理が終了したと判 定された場合、 ステップ S 6 2に進み、 動画編集プログラム 1 2は、 1つのシ一 ンを選択する。 例えば、 ここで、 先頭のシーンが選択される。 ステヅプ S 6 3に おいて、 動画編集プログラム 1 2は、 ステヅプ S 6 2で選択されたシーンの長さ が、 そのシーンに対応付けられた素材クリップの長さより短いか否かを判定する 選択されたシーンの長さが対応づけられた素材クリップの長さより短い場合には、 ステップ S 6 4に進み、 動画編集プログラム 1 2は、 素材クリップの中のシーン に対応させる部分を乱数で決定する。 例えば、 素材クリップの長さが 5秒であり、 対応するシーンの長さが 1秒である場合、 5秒間のうちの、 どの 1秒間の画像を そのシーンに対応させるかが、 1から 5までの数字を乱数で発生させて、 決定さ れる。
一方、 ステップ S 6 3において、 選択されたシーンの長さが対応づけられた素 材クリップの長さより短くないと判定された場合、 ステップ S 6 5に進み、 動画 編集プログラム 1 2は、 素材クリヅプの長さをシーンの長さに合うように延長す る処理を実行する。 例えば、 素材クリップの長さが 1秒であり、 シーンの長さが 5秒であるような場合、 素材クリップの長さを 5倍に延長することで ( 1ノ 5倍 の速度で再生することで) 、 すなわち、 スローモーション再生させることで、 素 材クリヅプの長さとシーンの長さが対応される。
ステヅプ S 6 4、 又はステップ S 6 5の処理の後、 ステヅプ S 6 6に進み、 動 画編集プログラム 1 2は、 そのシナリオでは、 そのシ一ンにエフェクトが指定さ れているか否かを判定する。 例えば、 今、 処理対象とされているシーンが、 図 4 4 Aにおけるシーン 1である場合、 このシーン 1には、 アニメーション効果が指 定されている。 このような場合、 ステップ S 6 7に進み、 動画編集プログラム 1 2は、 エフェクトが決定されているか否かを判定する。 すなわちエフェクトの指 定には、 図 4 4 Aのシーン 1における場合のように、 エフェクトがアニメ一ショ ン効果というように、 既に決定されている場合と、 例えば、 図 4 4 Bのシーン 3 における場合のように、 ランダム効果として指定されている場合がある。 ランダ ム効果の場合、 エフェクトを付加することは決められているが、 どのエフェクト を適用するのかはまだ決定されていない。 したがって、 このような場合には、 ス テツプ S 6 8に進み、 動画編集プログラム 1 2は、 予め用意されている、 例えば、 2 4個のエフェクトの中から、 乱数を発生させ、 1つのエフェクトを決定する。 ステヅプ S 6 7で、 エフェクトが既に決定されていると判定された場合、 また はステップ S 6 8で、 エフェクトが決定された場合、 ステップ S 6 9に進み、 動 画編集プログラム 1 2は、 シーンに対応された素材クリヅブに対して、 決定され たエフヱクトを対応させる。
ステツプ S 6 6において、 シーンにエフェクトが指定されていないと判定され た場合、 ステヅプ S 6 7乃至ステヅプ S 6 9の処理は不要であるので省略される 次にステップ S 7 0において、 動画編集プログラム 1 2は、 トランジシヨンの 指定がなされているか否かを判定する。 トランジシヨンの指定が成されている場 合には、 ステップ S 7 1に進み、 動画編集プログラム 1 2は、 次の素材クリップ との間にトランジシヨンを設定する。 これにより、 例えば、 現在処理対象とされ ているシーンと次に処理対象とされているシーンの画面が切り替えられる時、 例 えば、 図 2 7に示すようなワイプ効果が付与されて、 画面が切り替えられること になる。
ステップ S 7 0において、 トランジシヨンの指定がないと判定された場合、 ス テヅプ S 7 1の処理は、 不要であるので、 スキップされる。
ステヅプ S 7 2において、 動画編集プログラム 1 2は、 テキストが取り込まれ ているか否かを判定する。 すなわち、 上述したように、 テキストシェイクを行う 場合には、 ステップ S 5 2において、 その対象とされるテキストが取り込まれて いる。 この場合、 ステップ S 7 3に進み、 動画編集プログラム 1 2は、 今、 処理 対象とされているシ一ンにおいて、。テキストをシヱイクするか否かをランダムに 決定する。 ステップ S 7 4において、 動画編集プログラム 1 2は、 テキストシエ イクをすると決定されたか否かを判定し、 テキストシエイクをすると決定された と判定された場合、 ステップ S 7 5に進み、 取り込まれているテキス トの中から 1つのテキストをランダムに選択する。 例えば、 図 2 8に示すように、 3つのテ キストが取り込まれている場合、 そのうちの 1つのテキストが今処理対象とされ ているシーンに対応されるものとして選択される。
次に、 ステップ S 7 6において、 動画編集プログラム 1 2は、 テキストの揷入 位置をランダムに決定する。 この例の場合、 テキス トの挿入位置は、 画面の中央、 右上、 左上、 左下、 右下の 5つとされており、 この 5つの位置から、 1つの位置 がランダムに決定される。
ステップ S 7 4において、 テキストシェイクをしないと判定された場合、 ステ ヅプ S 7 5とステヅプ S 7 6の処理はスキヅプされる。 また、 ステップ S 7 2に おいて、 テキストが取り込まれていないと判定された場合には、 ステップ S 7 3 乃至ステツプ S 7 6の処理はスキヅプされる。
次にステヅブ S 7 7において、 全てのシーンに対する処理が終了したか否かが 判定され、 まだ全てのシーンに対する処理が終了していない場合には、 ステップ S 6 2に戻り、 次のシーンに対して、 上述した場合と同様の処理が実行される。 ステヅプ S 7 7において、 全てのシーンに対する処理が終了したと判定された 場合、 処理は終了する。 以上のシェ一力処理を、 模式的に説明すると、 図 4 6に示すようになる。
すなわち、 この例の場合、 素材クリップとして、 素材クリップ CL 1乃至 CL 5が、 指定されている。 また、 使用者が指定した選択ボタン 2 8 1の操作により、 1つ のシナリオが決定されている。 このシナリオは、 この例の場合、 シーン SC 1乃至 SCnの n個のシーンで構成されている。 このうちシーン SC 3は、 セピア色の色調整 が行われ、 シーン SCn- 1には、 ランダム効果が付与され、 シーン SCnは、 セピア色 の色調整が行われる。 また、 シーン SC 2と SC 3の間、 シーン SC 3と SC 4の間、 シ ーン SCn- 1とシーン SCnの間には、 それそれ、 トランジシヨンが形成される。 シ一 ン SC 1の長さは 2秒、 シーン SC 2の長さは 2 . 2秒、 シーン SC 3の長さは 4 . 0 秒、 シーン SCn-3の長さは 1秒、 シーン SCn- 1の長さは 5秒、 シーン SCnの長さは 3 秒とされている。 また、 このシーンに対応する音楽も予め決定されている。 これ らは既に、 動画編集プログラム 1 2により予め用意されているものである。
これに対して、 動画編集プログラム 1 2は、 5個の素材クリップ CL 1乃至 CL 5 の中から所定のものをランダムに選択し、 各シーン SC 1乃至 SCnに割り当てる。 そ して、 例えば、 シーン SCn- 3に素材クリヅプ CL 5が割り当てられた場合、 シーン S Cn - 3の長さは 1秒であるのに対して、 素材クリップ CL 5の長さは、 1秒以上存在 する。 そこで、 この場合、 素材クリヅプ CL 5の再生時刻が t 1から七 4までの間 のうちの、 ランダムに選択された時刻 t 2から t 3までの間の 1秒の長さの部分 がシーン SCn-3に割り当てられる。
このようにして、 使用者は素材クリップを指定するだけで、 自動的に、 所定の 編集処理された画像情報を得ることができる。 素材クリップの割り当ては、 ラン ダムに決定されるため、 同一の素材クリップを選択したとしても、 基本的には異 なる編集結果が得られることになる。
次に、 図 3 2のステヅプ S 1 8の処理に対応する、 自動編集の処理により生成 された動画像の確認の処理の詳細を図 4 7のフローチャートを参照して説明する。 ステップ S 1 9 0 1において、 ブラウザプログラム 1 1は、 イン夕一ネット 2を 介して、 動画編集用サ一バ 3に、 自動編集により生成された動画像の再生の要求 を送信する。
ステヅプ S 2 9 0 1において、 動画編集プログラム 1 2は、 パーソナルコンビ ュ一夕 1が送信した、 自動編集により生成された動画像の再生の要求を受信する c ステヅプ S 2 9 0 2において、 動画編集プログラム 1 2は、 自動編集により生成 された動画像のデ一夕を編集用テンポラリスペース 6の作業用のスペースに記録 されているファイルから読み出して、 イン夕一ネヅト 2を介して、 パーソナルコ ンピュー夕 1に送信する。
ステップ S 1 9 0 2において、 ブラウザプログラム 1 1は、 動画編集用サーバ 3が送信した動画像のデ一夕を受信する。 ステップ S 1 9 0 3において、 ブラウ ザプログラム 1 1は、 受信した動画像のデータを再生し、 処理は終了する。
このように、 ブラウザプログラム 1 1は、 自動編集により生成された動画像を 再生するので、 パーソナルコンピュータ 1の使用者は、 自動編集により生成され た動画像を確認し、 保存するか否かの判断をすることができる。
次に、 図 3 2のステップ S 1 9の処理に対応する.、 自動編集の処理により生成 された動画像のデ一夕の保存の処理の詳細を図 4 8のフローチヤ一トを参照して 説明する。 ステップ S 1 1 0 0 1において、 ブラウザプログラム 1 1は、 ィン夕 一ネット 2を介して、 動画編集用サーバ 3に、 自動編集により生成された動画像 のデ一夕の保存の要求を送信する。
ステップ S 2 1 0 0 1において、 動画編集プログラム 1 2は、 パーソナルコン ピュー夕 1が送信した、 自動編集により生成された動画像のデータの保存の要求 を受信する。 ステヅプ S 2 1 0 0 2において、 動画編集プログラム 1 2は、 デー 夕 I Dを生成して、 編集用テンポラリスペース 6の作業用のスペースのファイル に格納されている、 編集されたデ一夕にデータ I Dを割り当てて、 ユーザ映像管 理デ一夕ベース 4の使用者用のスペースに保存する。 ステヅプ S 2 1 0 0 3にお いて、 動画編集プログラム 1 2は、 ユーザ映像管理データベース 4に、 図 4を参 照して説明した、 生成したデ一夕 I Dと共に、 そのデータ I Dに対応するデ一夕 を記録させて、 ユーザ映像管理データベース 4に記録されているデータを更新さ せ、 処理は終了する。
このように、 ブラウザプログラム 1 1は、 自動編集により生成された動画像の データをユーザ映像管理データベース 4に記録させることができる。
以上のように、 動画編集用サーバ 3は、 インターネッ ト 2を介してパーソナル コンピュータ 1から送信された動画像、 静止画像、 又は音声のデ一夕を素材デー 夕としてユーザ映像管理データベース 4に記録させ、 パーソナルコンピュータ 1 の要求に対応して、 ユーザ映像管理デ一夕ペース 4に記録されている所有してい る素材データを基に、 自動的に動画像を生成することができる。
また、 動画編集用サ一バ 3は、 パーソナルコンピュータ 1の要求に対応して、 ユーザ映像管理デ一夕べ一ス 4に記録されている共有している素材データを基に、 自動的に動画像を生成することができる。
パーソナルコンピュータ 1の使用者は、 ユーザ映像管理データベース 4に記録 された、 自動的に生成した動画像データの属性を設定することで、 更に、 自動的 に生成した動画像デ一夕の共有を設定することができる。
上述した一連の処理は、 ハードゥヱァにより実行させることもできるが、 ソフ トウヱァにより実行させることもできる。 一連の処理をソフトウヱァにより実行 させる場合には、 そのソフトウェアを構成するプログラムが、 専用のハードゥエ ァに組み込まれているコンビユー夕、 又は、 各種のプログラムをインストールす ることで、 各種の機能を実行することが可能な、 例えば汎用のパーソナルコンビ ユー夕などに、 プログラム格納媒体からインストールされる。
コンピュータにインストールされ、 コンピュータによって実行可能な状態とさ れるプログラムを格納するプログラム格納媒体は、 図 2に示すように、 磁気ディ スク 6 1 (フロッピディスクを含む) 、 光ディスク 6 2 (CD-R O M (Compact Di sc-Read Only Memory), D V D (Digital Versati le Disc)を含む) 、 光磁気ディ スク 6 3 (M D (Mini-Disc )を含む) 、 若しくは半導体メモリ 6 4などよりなるパ ヅケージメディア、 又はプログラムが一時的若しくは永続的に格納される R O M 3 2や、 H D D 4 1などにより構成される。 プログラム格納媒体へのプログラム の格納は、 必要に応じてルー夕、 モデムなどの通信部 4 3を介して、 ローカルェ リアネヅトワーク、 インターネット 2、 デジタル衛星放送といった、 有線又は無 線の通信媒体を利用して行われる。
なお、 本発明において、 プログラム格納媒体に格納されるプログラムを記述す るステップは、 記載された順序に沿って時系列的に行われる処理はもちろん、 必 ずしも時系列的に処理されなくとも、 並列的あるいは個別に実行される処理をも 含むものである。
また、 本発明において、 システムとは、 複数の装置により構成される装置全体 を表すものである。 産業上の利用可能性 本発明は、 情報処理装置の要求に対応して、 任意の時間の複数のシーンからな るシナリオが取得され、 情報処理装置の要求に対応して、 シナリオの利用の対象 とされる任意の数の画像情報が取得され、 取得された画像情報のうちの所定のも のが選択され、 取得されたシーンに対応され、 シナリオのシーンとの対応付けに 対応して、 画像情報が修正されるようにしたので、 簡単且つ迅速に画像を編集す ることができるようになる。

Claims

請求の範囲
1 . ネットワークを介した、 情報処理装置の要求に対応して、 画像情報を編集す る情報提供装置において、
前記情報処理装置の要求に対応して、 任意の時間の複数のシーンからなるシナ リオを取得する第 1の取得手段と、
前記情報処理装置の要求に対応して、 前記シナリオの利用の対象とされる任意 の数の前記画像情報を取得する第 2の取得手段と、
前記第 2の取得手段により取得された前記画像情報のうちの所定のものを選択 し、 前記第 1の取得手段により取得された前記シーンに対応させる対応付け手段 と、
前記対応付け手段による前記シナリオの前記シーンとの対応付けに対応して、 前記画像情報を修正する修正手段とを含むことを特徴とする情報提供装置。
2 . 上記装置は、 更に、 前記シナリオの前記シーンの所定のものには、 所定の特 殊効果が割り当てられており、 前記シーンに対応付けされた前記画像情報に、 そ のシーンに対応されている前記特殊効果を適用する適用手段を含むことを特徴と する請求の範囲第 1項記載の情報提供装置。
3 . 上記装置は、 更に、 前記適用手段により前記シナリオの前記特殊効果を前記 画像情報に適用して生成された画像情報の送信を制御する送信制御手段を含むこ とを特徴とする請求の範囲第 2項記載の情報提供装置。
4 . 上記装置は、 更に、 前記適用手段により前記シナリオの前記特殊効果を前記 画像情報に適用して生成された画像情報の記録を制御する記録制御手段を含むこ とを特徴とする請求の範囲第 2項記載の情報提供装置。
5 . 前記第 1の取得手段は、 複数の前記シナリオの中から選択されたものを取得 することを特徴とする請求の範囲第 1項記載の情報提供装置。
6 . 前記複数の前記シナリオのそれそれには、 異なる音楽が対応付けされている ことを特徴とする請求の範囲第 5項記載の情報提供装置。
7 . 前記第 2の取得手段は、 前記情報処理装置から供給された前記画像情報を取 得することを特徴とする請求の範囲第 1項記載の情報提供装置。
8 . 前記第 2の取得手段は、 他の情報処理装置から供給された前記画像情報を取 得することを特徴とする請求の範囲第 1項記載の情報提供装置。
9 . ネットワークを介した、 情報処理装置の要求に対応して、 画像情報を編集す る情報提供装置の情報提供方法において、
前記情報処理装置の要求に対応して、 任意の時間の複数のシーンからなるシナ リオを取得する第 1の取得ステップと、
前記情報処理装置の要求に対応して、 前記シナリオの利用の対象とされる任意 の数の前記画像情報を取得する第 2の取得ステツプと、
前記第 2の取得ステツブの処理により取得された前記画像情報のうちの所定の ものを選択し、 前記第 1の取得ステツプの処理により取得された前記シーンに対 応させる対応付けステツプと、
前記対応付けステップの処理による前記シナリオの前記シーンとの対応付けに 対応して、 前記画像情報を修正する修正ステップとを含むことを特徴とする情報 提供方法。
1 0 . ネットワークを介した、 情報処理装置の要求に対応して、 画像情報を編集 する情報提供処理用のプログラムであって、
前記情報処理装置の要求に対応して、 任意の時間の複数のシーンからなるシナ リオを取得する第 1の取得ステップと、
前記情報処理装置の要求に対応して、 前記シナリオの利用の対象とされる任意 の数の前記画像情報を取得する第 2の取得ステツプと、
前記第 2の取得ステツプの処理により取得された前記画像情報のうちの所定の ものを選択し、 前記第 1の取得ステップの処理により取得された前記シーンに対 応させる対応付けステツプと、
前記対応付けステップの処理による前記シナリオの前記シーンとの対応付けに 対応して、 前記画像情報を修正する修正ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが格納され ているプログラム格納媒体。
PCT/JP2001/003741 2000-04-27 2001-04-27 Dispositif de generation d'informations, procede de generation d'informations et support de stockage de programmes WO2001084829A1 (fr)

Priority Applications (7)

Application Number Priority Date Filing Date Title
US10/018,954 US7552388B2 (en) 2000-04-27 2001-04-27 Information providing device, information providing method, and program storage medium
EP01926066.0A EP1280342B1 (en) 2000-04-27 2001-04-27 Information providing device, information providing method, and program storage medium
US11/561,978 US8209611B2 (en) 2000-04-27 2006-11-21 Data-providing apparatus, data-providing method and program-sorting medium
US13/293,670 US9449644B2 (en) 2000-04-27 2011-11-10 Data-providing apparatus, data-providing method and program-sorting medium
US13/450,687 US9466331B2 (en) 2000-04-27 2012-04-19 Data-providing apparatus, data-providing method and program-sorting medium
US14/945,025 US10692534B2 (en) 2000-04-27 2015-11-18 Data-providing apparatus, data-providing method and program-sorting medium
US16/856,060 US20200251145A1 (en) 2000-04-27 2020-04-23 Data-providing apparatus, data-providing method and program-sorting medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000-126850 2000-04-27
JP2000126850A JP4660879B2 (ja) 2000-04-27 2000-04-27 情報提供装置および方法、並びにプログラム

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US10/018,954 A-371-Of-International US7552388B2 (en) 2000-04-27 2001-04-27 Information providing device, information providing method, and program storage medium
US10018954 A-371-Of-International 2001-04-27
US11/561,978 Division US8209611B2 (en) 2000-04-27 2006-11-21 Data-providing apparatus, data-providing method and program-sorting medium

Publications (1)

Publication Number Publication Date
WO2001084829A1 true WO2001084829A1 (fr) 2001-11-08

Family

ID=18636543

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/003741 WO2001084829A1 (fr) 2000-04-27 2001-04-27 Dispositif de generation d'informations, procede de generation d'informations et support de stockage de programmes

Country Status (6)

Country Link
US (6) US7552388B2 (ja)
EP (2) EP2581911A1 (ja)
JP (1) JP4660879B2 (ja)
KR (1) KR100860155B1 (ja)
TW (1) TW512265B (ja)
WO (1) WO2001084829A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002063625A2 (en) * 2001-02-08 2002-08-15 Newsplayer International Ltd Media editing method and software therefor

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4963141B2 (ja) 2000-04-27 2012-06-27 ソニー株式会社 情報提供装置および方法、並びにプログラム格納媒体
JP2004287928A (ja) 2003-03-24 2004-10-14 Vision Arts Kk コンテンツ管理プログラム
US7458030B2 (en) * 2003-12-12 2008-11-25 Microsoft Corporation System and method for realtime messaging having image sharing feature
JP4493470B2 (ja) * 2004-11-02 2010-06-30 オリンパス株式会社 画像処理プログラム、画像処理方法及び画像処理装置
JP2006190203A (ja) * 2005-01-07 2006-07-20 I-O Data Device Inc オーサリングシステム、オーサリングサーバ、オーサリング方法およびオーサリングプログラム
US20060206526A1 (en) * 2005-03-10 2006-09-14 Portalvideo, Inc. Video editing method and apparatus
JP2006262320A (ja) * 2005-03-18 2006-09-28 Toshiba Corp 映像素材転送方法と映像素材転送送り側装置及び映像素材転送受け側装置
JP4039433B2 (ja) * 2005-05-09 2008-01-30 コニカミノルタビジネステクノロジーズ株式会社 画像データ送信装置及び画像データ送信方法
JP2009507453A (ja) * 2005-09-07 2009-02-19 ポータルビデオ・インコーポレーテッド ビデオ編集方法および装置におけるテキスト位置の時間見積もり
US7614012B1 (en) * 2005-12-22 2009-11-03 Adobe Systems Incorporated Methods and apparatus for graphical object implementation
US20070192107A1 (en) * 2006-01-10 2007-08-16 Leonard Sitomer Self-improving approximator in media editing method and apparatus
US8732019B2 (en) 2006-07-21 2014-05-20 Say Media, Inc. Non-expanding interactive advertisement
US9208500B2 (en) 2006-07-21 2015-12-08 Microsoft Technology Licensing, Llc Fixed position multi-state interactive advertisement
US7956849B2 (en) 2006-09-06 2011-06-07 Apple Inc. Video manager for portable multifunction device
US20090019370A1 (en) * 2006-09-14 2009-01-15 Joseph Pally System for controlling objects in a recursive browser system: forcefield
US10108730B2 (en) * 2006-09-28 2018-10-23 Oath Inc. Method and system for posting video
JP5152458B2 (ja) * 2006-12-01 2013-02-27 株式会社メガチップス コンテンツベース、コミュニケーションシステム
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US8428443B2 (en) * 2007-03-12 2013-04-23 At&T Intellectual Property I, L.P. Systems and methods of providing modified media content
US8977973B2 (en) * 2010-11-23 2015-03-10 Ebay Inc. Online logo tool
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US10739941B2 (en) 2011-03-29 2020-08-11 Wevideo, Inc. Multi-source journal content integration systems and methods and systems and methods for collaborative online content editing
US20120251080A1 (en) 2011-03-29 2012-10-04 Svendsen Jostein Multi-layer timeline content compilation systems and methods
US9098611B2 (en) * 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US20130132843A1 (en) * 2011-11-23 2013-05-23 BenchFly Inc. Methods of editing personal videograpghic media
KR20130116644A (ko) * 2012-04-16 2013-10-24 주식회사 케이티 소셜 인터랙티브 영상 서비스 제공 방법 및 장치
WO2013176758A1 (en) 2012-05-22 2013-11-28 Intouch Technologies, Inc. Clinical workflows utilizing autonomous and semi-autonomous telemedicine devices
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US9484063B2 (en) * 2012-10-02 2016-11-01 Quadmanage Ltd. Shared scene mosaic generation
USD733181S1 (en) * 2012-10-09 2015-06-30 Shenzhen Mindray Bio-Medical Electronics Co. Ltd. Anesthesia machine with animated graphical user interface
US20160035392A1 (en) * 2012-11-22 2016-02-04 Didja, Inc. Systems and methods for clipping video segments
WO2014094211A1 (en) 2012-12-17 2014-06-26 Intel Corporation Embedding thumbnail information into video streams
US11748833B2 (en) 2013-03-05 2023-09-05 Wevideo, Inc. Systems and methods for a theme-based effects multimedia editing platform
US20140258373A1 (en) 2013-03-11 2014-09-11 Say Media, Inc. Systems and Methods for Managing and Publishing Managed Content
WO2014142805A1 (en) * 2013-03-12 2014-09-18 PEARISO, Christopher System and methods for facilitating the development and management of creative assets
WO2014208575A1 (ja) 2013-06-28 2014-12-31 日本電気株式会社 映像監視システム、映像処理装置、映像処理方法および映像処理プログラム
JP5858071B2 (ja) * 2014-03-07 2016-02-10 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよび情報処理システム
US9734869B2 (en) * 2014-03-11 2017-08-15 Magisto Ltd. Method and system for automatic learning of parameters for automatic video and photo editing based on user's satisfaction
US9667886B2 (en) * 2014-03-27 2017-05-30 Sony Corporation Apparatus and method for editing video data according to common video content attributes
KR102137207B1 (ko) * 2014-06-06 2020-07-23 삼성전자주식회사 전자 장치, 그 제어 방법 및 시스템
US9170707B1 (en) 2014-09-30 2015-10-27 Google Inc. Method and system for generating a smart time-lapse video clip
US9501915B1 (en) 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
USD782495S1 (en) * 2014-10-07 2017-03-28 Google Inc. Display screen or portion thereof with graphical user interface
JP1525112S (ja) * 2014-11-14 2015-06-01
TWD180105S (zh) * 2014-11-14 2016-12-11 愛斯佩克股份有限公司 顯示面板之操作介面之部分
KR102350770B1 (ko) * 2014-12-16 2022-01-14 엘지전자 주식회사 이동 단말기 및 그의 동작 방법
USD774076S1 (en) * 2015-01-16 2016-12-13 Harman International Industries, Incorporated Display screen or portion thereof with graphical user interface
USD865792S1 (en) 2015-01-16 2019-11-05 Harman International Industries, Incorporated Display screen or portion thereof with graphical user interface
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
US10320797B2 (en) 2015-09-25 2019-06-11 International Business Machines Corporation Enabling a multi-dimensional collaborative effort system
US10120552B2 (en) 2015-09-25 2018-11-06 International Business Machines Corporation Annotating collaborative content to facilitate mining key content as a runbook
US9939994B2 (en) * 2015-09-25 2018-04-10 International Business Machines Corporation Tracking and managing items in a collaborative exchange
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
US10380429B2 (en) 2016-07-11 2019-08-13 Google Llc Methods and systems for person detection in a video feed
US10957171B2 (en) 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
DK179932B1 (en) * 2017-05-16 2019-10-11 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR NAVIGATING, DISPLAYING, AND EDITING MEDIA ITEMS WITH MULTIPLE DISPLAY MODES
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
US10410086B2 (en) 2017-05-30 2019-09-10 Google Llc Systems and methods of person recognition in video streams
US10664688B2 (en) 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
US11134227B2 (en) 2017-09-20 2021-09-28 Google Llc Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment
US11216531B2 (en) * 2019-08-15 2022-01-04 Pricewaterhousecoopers Llp Enterprise software adoption platform systems and methods
US11893795B2 (en) 2019-12-09 2024-02-06 Google Llc Interacting with visitors of a connected home environment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06121273A (ja) * 1992-10-09 1994-04-28 Matsushita Electric Ind Co Ltd 映像編集装置
JPH0832923A (ja) * 1994-07-15 1996-02-02 Sony Corp 情報信号編集装置及び編集システム
JPH1098677A (ja) * 1996-09-25 1998-04-14 Matsushita Electric Ind Co Ltd 映像情報編集装置

Family Cites Families (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5008853A (en) * 1987-12-02 1991-04-16 Xerox Corporation Representation of collaborative multi-user activities relative to shared structured data objects in a networked workstation environment
US5267351A (en) * 1989-12-22 1993-11-30 Avid Technology, Inc. Media storage and retrieval system
US5388196A (en) * 1990-09-07 1995-02-07 Xerox Corporation Hierarchical shared books with database
JPH05165932A (ja) * 1991-12-13 1993-07-02 Canon Inc 画像編集方法及びシステム
US5999173A (en) * 1992-04-03 1999-12-07 Adobe Systems Incorporated Method and apparatus for video editing with video clip representations displayed along a time line
US5442744A (en) * 1992-04-03 1995-08-15 Sun Microsystems, Inc. Methods and apparatus for displaying and editing multimedia information
US5809317A (en) * 1992-12-30 1998-09-15 Intel Corporation Creating and maintaining hypertext links among heterogeneous documents by the establishment of anchors and connections among anchors
US5560007A (en) * 1993-06-30 1996-09-24 Borland International, Inc. B-tree key-range bit map index optimization of database queries
US5778398A (en) * 1993-07-20 1998-07-07 Canon Kabushiki Kaisha Document processing to permit sharing of content by plural documents
JP2701724B2 (ja) * 1993-12-28 1998-01-21 日本電気株式会社 シナリオ編集装置
JP2692564B2 (ja) * 1993-12-28 1997-12-17 日本電気株式会社 水平表示位置自動補正回路
EP0715460B1 (en) * 1994-03-16 2006-06-21 Sony Corporation Image editing system
US6191807B1 (en) * 1994-05-27 2001-02-20 Canon Kabushiki Kaisha Communication apparatus and method for performing a file transfer operation
US5495291A (en) * 1994-07-22 1996-02-27 Hewlett-Packard Company Decompression system for compressed video data for providing uninterrupted decompressed video data output
JPH10508964A (ja) * 1994-11-08 1998-09-02 バーミア、テクノロジーズ、インコーポレーテッド 料金設定機能を有するオンラインサービス開発ツール
US5664207A (en) * 1994-12-16 1997-09-02 Xcellenet, Inc. Systems and methods for automatically sharing information among remote/mobile nodes
US5826102A (en) * 1994-12-22 1998-10-20 Bell Atlantic Network Services, Inc. Network arrangement for development delivery and presentation of multimedia applications using timelines to integrate multimedia objects and program objects
JPH0991463A (ja) * 1995-07-14 1997-04-04 Matsushita Electric Ind Co Ltd 画像編集装置
US5760767A (en) * 1995-10-26 1998-06-02 Sony Corporation Method and apparatus for displaying in and out points during video editing
US5729734A (en) * 1995-11-03 1998-03-17 Apple Computer, Inc. File privilege administration apparatus and methods
US7124359B2 (en) * 1996-01-11 2006-10-17 Canon Kabushiki Kaisha Image edit device adapted to rapidly lay-out photographs into templates with means for preview and correction by user
US5801685A (en) * 1996-04-08 1998-09-01 Tektronix, Inc. Automatic editing of recorded video elements sychronized with a script text read or displayed
US5852435A (en) * 1996-04-12 1998-12-22 Avid Technology, Inc. Digital multimedia editing and data management system
US5995098A (en) * 1996-05-17 1999-11-30 Fujitsu Limited Personal information environment system
US6898620B1 (en) * 1996-06-07 2005-05-24 Collaboration Properties, Inc. Multiplexing video and control signals onto UTP
US6628303B1 (en) * 1996-07-29 2003-09-30 Avid Technology, Inc. Graphical user interface for a motion video planning and editing system for a computer
US6154600A (en) * 1996-08-06 2000-11-28 Applied Magic, Inc. Media editor for non-linear editing system
US5969716A (en) * 1996-08-06 1999-10-19 Interval Research Corporation Time-based media processing system
US6249316B1 (en) * 1996-08-23 2001-06-19 Flashpoint Technology, Inc. Method and system for creating a temporary group of images on a digital camera
US5760917A (en) 1996-09-16 1998-06-02 Eastman Kodak Company Image distribution method and system
CA2202106C (en) * 1997-04-08 2002-09-17 Mgi Software Corp. A non-timeline, non-linear digital multimedia composition method and system
JPH10304234A (ja) * 1997-04-24 1998-11-13 Sony Corp 撮像システム、及びビデオカメラ装置
US6573907B1 (en) * 1997-07-03 2003-06-03 Obvious Technology Network distribution and management of interactive video and multi-media containers
US6018774A (en) 1997-07-03 2000-01-25 Yobaby Productions, Llc Method and system for creating messages including image information
US6400378B1 (en) * 1997-09-26 2002-06-04 Sony Corporation Home movie maker
JP3276596B2 (ja) 1997-11-04 2002-04-22 松下電器産業株式会社 動画像編集装置
JP3613543B2 (ja) 1997-11-11 2005-01-26 株式会社日立国際電気 動画像編集装置
US5950203A (en) * 1997-12-31 1999-09-07 Mercury Computer Systems, Inc. Method and apparatus for high-speed access to and sharing of storage devices on a networked digital data processing system
US6260040B1 (en) * 1998-01-05 2001-07-10 International Business Machines Corporation Shared file system for digital content
US6351765B1 (en) 1998-03-09 2002-02-26 Media 100, Inc. Nonlinear video editing system
JP4462654B2 (ja) * 1998-03-26 2010-05-12 ソニー株式会社 映像素材選択装置及び映像素材選択方法
US6763523B1 (en) 1998-04-03 2004-07-13 Avid Technology, Inc. Intelligent transfer of multimedia data files from an editing system to a playback device
US7689532B1 (en) * 2000-07-20 2010-03-30 Digimarc Corporation Using embedded data with file sharing
JP2000082278A (ja) * 1998-07-03 2000-03-21 Hitachi Denshi Ltd 動画像編集方法
US6240421B1 (en) * 1998-09-08 2001-05-29 Edwin J. Stolarz System, software and apparatus for organizing, storing and retrieving information from a computer database
JP3601350B2 (ja) * 1998-09-29 2004-12-15 ヤマハ株式会社 演奏画像情報作成装置および再生装置
JP4207099B2 (ja) * 1998-09-29 2009-01-14 ソニー株式会社 画像編集装置及びその方法
US6535228B1 (en) * 1998-11-18 2003-03-18 Eastman Kodak Company Method and system for sharing images using a digital media frame
US6509910B1 (en) * 1998-11-18 2003-01-21 Eastman Kodak Company Method and system for interfacing with a digital media frame network
US6571245B2 (en) * 1998-12-07 2003-05-27 Magically, Inc. Virtual desktop in a computer network
US6320600B1 (en) * 1998-12-15 2001-11-20 Cornell Research Foundation, Inc. Web-based video-editing method and system using a high-performance multimedia software library
US6738075B1 (en) * 1998-12-31 2004-05-18 Flashpoint Technology, Inc. Method and apparatus for creating an interactive slide show in a digital imaging device
JP4144961B2 (ja) * 1999-01-14 2008-09-03 富士フイルム株式会社 画像データ通信システム,サーバ・システムおよびその制御方法ならびにサーバ・システムを制御するためのプログラムを格納した記録媒体
US6697061B1 (en) * 1999-01-21 2004-02-24 Hewlett-Packard Development Company, L.P. Image compression featuring selective re-use of prior compression data
US6762791B1 (en) * 1999-02-16 2004-07-13 Robert W. Schuetzle Method for processing digital images
US6892353B1 (en) * 1999-04-02 2005-05-10 Apple Computer, Inc. Edit to tape
US6766357B1 (en) 1999-04-15 2004-07-20 Avid Technology, Inc. Apparatus and method for efficient transfer of multimedia data for playback
US6345306B1 (en) * 1999-05-05 2002-02-05 International Business Machines Corporation Packager apparatus and method for physically and logically packaging and distributing items in a distributed environment
US6369835B1 (en) * 1999-05-18 2002-04-09 Microsoft Corporation Method and system for generating a movie file from a slide show presentation
US6792615B1 (en) * 1999-05-19 2004-09-14 New Horizons Telecasting, Inc. Encapsulated, streaming media automation and distribution system
US6574424B1 (en) * 1999-06-25 2003-06-03 International Business Machines Corporation Method and apparatus for a randomizer for DVD video
US6456304B1 (en) * 1999-06-30 2002-09-24 Microsoft Corporation Procedural toolbar user interface
US6720979B1 (en) * 1999-07-15 2004-04-13 International Business Machines Corporation Dynamic manipulation of animated graphics in a web browser
US7284203B1 (en) * 1999-07-27 2007-10-16 Verizon Laboratories Inc. Method and apparatus for application sharing interface
US8464302B1 (en) * 1999-08-03 2013-06-11 Videoshare, Llc Method and system for sharing video with advertisements over a network
US6868394B1 (en) * 1999-09-21 2005-03-15 Daniel Mele Method and apparatus for simplified artist-buyer transactions
US6583792B1 (en) * 1999-11-09 2003-06-24 Newag Digital, Llc System and method for accurately displaying superimposed images
DE60002502T2 (de) 1999-11-10 2004-03-25 Thomson Licensing S.A., Boulogne Editier und teilungsverfahren für wiedereinschreibbare platten
US7243079B1 (en) * 1999-11-24 2007-07-10 Shutterfly, Inc. User interface and methods for online print service
US6727925B1 (en) * 1999-12-20 2004-04-27 Michelle Lyn Bourdelais Browser-based room designer
US20010004417A1 (en) * 1999-12-21 2001-06-21 Ageishi Narutoshi Video editing system
US6948131B1 (en) * 2000-03-08 2005-09-20 Vidiator Enterprises Inc. Communication system and method including rich media tools
JP2003530030A (ja) * 2000-03-31 2003-10-07 ユナイテッド ビデオ プロパティーズ, インコーポレイテッド ホーム監視供給を有するパーソナルビデオ記録システム
JP2001357010A (ja) * 2000-04-10 2001-12-26 Mitsubishi Corp インターネット上のWebサーバにおいてファイルを受託管理する方法およびこの方法に用いるファイル受託管理装置
US6965926B1 (en) * 2000-04-10 2005-11-15 Silverpop Systems, Inc. Methods and systems for receiving and viewing content-rich communications
US20020049847A1 (en) * 2000-04-24 2002-04-25 Cardblast.Com Dynamic interactive processes for unaided browsers
JP4963141B2 (ja) * 2000-04-27 2012-06-27 ソニー株式会社 情報提供装置および方法、並びにプログラム格納媒体
US7576752B1 (en) * 2000-10-04 2009-08-18 Shutterfly Inc. System and method for manipulating digital images
US20020116716A1 (en) * 2001-02-22 2002-08-22 Adi Sideman Online video editor
US20020133597A1 (en) * 2001-03-14 2002-09-19 Nikhil Jhingan Global storage system
WO2002088908A2 (en) * 2001-05-02 2002-11-07 Bitstream Inc. Methods, systems, and programming for producing and displaying subpixel-optimized font bitmaps using non-linear color balancing
US6598375B2 (en) * 2001-06-29 2003-07-29 Longford Equipment International Limited Lid applicator
JP2003196242A (ja) * 2001-12-25 2003-07-11 Sony Corp プログラム、ネットワークシステム、端末装置、サーバ装置
US20050116966A1 (en) * 2002-04-04 2005-06-02 Graham James J. Web imaging serving technology
US20040194127A1 (en) * 2003-03-28 2004-09-30 Eastman Kodak Company Method and system for modifying digital cinema frame content
WO2006124193A2 (en) * 2005-04-20 2006-11-23 Videoegg, Inc. Browser enabled video manipulation
US7756752B2 (en) 2005-08-22 2010-07-13 Yahoo! Inc. Customization of an online shopping experience
US20080109866A1 (en) * 2006-11-03 2008-05-08 Sharp Laboratories Of America, Inc. Context based secure sharing and voice and video communication on a television

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06121273A (ja) * 1992-10-09 1994-04-28 Matsushita Electric Ind Co Ltd 映像編集装置
JPH0832923A (ja) * 1994-07-15 1996-02-02 Sony Corp 情報信号編集装置及び編集システム
JPH1098677A (ja) * 1996-09-25 1998-04-14 Matsushita Electric Ind Co Ltd 映像情報編集装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002063625A2 (en) * 2001-02-08 2002-08-15 Newsplayer International Ltd Media editing method and software therefor
WO2002063625A3 (en) * 2001-02-08 2003-10-16 Newsplayer Internat Ltd Media editing method and software therefor
GB2390470B (en) * 2001-02-08 2005-05-11 Newsplayer Internat Ltd Viewing a sequence of media clips across a network

Also Published As

Publication number Publication date
US20120057851A1 (en) 2012-03-08
US20120203840A1 (en) 2012-08-09
KR100860155B1 (ko) 2008-09-24
EP2581911A1 (en) 2013-04-17
US20200251145A1 (en) 2020-08-06
US20160071543A1 (en) 2016-03-10
US8209611B2 (en) 2012-06-26
EP1280342A1 (en) 2003-01-29
JP4660879B2 (ja) 2011-03-30
US20070091392A1 (en) 2007-04-26
US20020113813A1 (en) 2002-08-22
JP2001309298A (ja) 2001-11-02
EP1280342A4 (en) 2006-05-03
US9466331B2 (en) 2016-10-11
EP1280342B1 (en) 2018-07-25
US9449644B2 (en) 2016-09-20
KR20020028914A (ko) 2002-04-17
US7552388B2 (en) 2009-06-23
US10692534B2 (en) 2020-06-23
TW512265B (en) 2002-12-01

Similar Documents

Publication Publication Date Title
WO2001084829A1 (fr) Dispositif de generation d&#39;informations, procede de generation d&#39;informations et support de stockage de programmes
JP4963141B2 (ja) 情報提供装置および方法、並びにプログラム格納媒体
US9319487B2 (en) Server device, client device, information processing system, information processing method, and program
US8347213B2 (en) Automatically generating audiovisual works
US20050102260A1 (en) Content management for rich media publishing system
JP2001202086A (ja) 情報処理装置および方法、並びにプログラム格納媒体
JP3906345B2 (ja) 効果音及び映像の配信システム
JP2001202082A (ja) 映像信号編集装置および方法
JP2010191634A (ja) 動画作成プログラム、動画作成サービス提供システム、及び動画再生プログラム
JP2004193959A (ja) コンテンツ利用情報を活用した二次コンテンツ作成方法,サーバ装置,二次コンテンツ再生クライアント装置,コンテンツ作成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 2001926066

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020017016628

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 10018954

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1020017016628

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2001926066

Country of ref document: EP