JP5625642B2 - 情報処理装置、データ分割方法及びデータ分割プログラム - Google Patents

情報処理装置、データ分割方法及びデータ分割プログラム Download PDF

Info

Publication number
JP5625642B2
JP5625642B2 JP2010199350A JP2010199350A JP5625642B2 JP 5625642 B2 JP5625642 B2 JP 5625642B2 JP 2010199350 A JP2010199350 A JP 2010199350A JP 2010199350 A JP2010199350 A JP 2010199350A JP 5625642 B2 JP5625642 B2 JP 5625642B2
Authority
JP
Japan
Prior art keywords
data
image
time axis
sequence
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010199350A
Other languages
English (en)
Other versions
JP2012058858A (ja
Inventor
麗子 宮崎
麗子 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010199350A priority Critical patent/JP5625642B2/ja
Priority to EP11175438A priority patent/EP2426665A1/en
Priority to US13/198,524 priority patent/US9153286B2/en
Priority to CN2011102593737A priority patent/CN102387313A/zh
Publication of JP2012058858A publication Critical patent/JP2012058858A/ja
Application granted granted Critical
Publication of JP5625642B2 publication Critical patent/JP5625642B2/ja
Priority to US14/837,293 priority patent/US9443342B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Processing (AREA)

Description

本発明は、情報処理装置、データ分割方法及びデータ分割プログラムに関し、例えば、動画像データなどの時間的に連続するデータを編集する際に適用して好適なものである。
従来、動画像を編集する情報処理装置では、素材となる動画像の中から所望の部分を切り出し、切り出した部分を所望の順番でつなぎあわせて、動画像を編集しうるようになっている(例えば特許文献1参照)。
特開2008−182765公報
ところで、上述した情報処理装置では、動画像の内容を時間軸に沿って表す画像を表示し、ユーザが当該画像の所望する位置にカーソルを合わせてマウスをクリックすると、開始点又は終了点を指定する。そして、開始点及び終了点が指定された状態で、ユーザがカーソルを所定のボタン上に合わせてマウスをクリックすると、このとき指定されていた開始点及び終了点間を切り出す。このようにして、上述した情報処理装置では、動画像の中から所望の部分を切り出せるようになっている。
ここで、従来と比してより直感的な操作で、動画像の中からユーザが所望する部分を切り出すことができれば、情報処理装置の操作性が格段と向上するものと考えられる。
本発明は以上の点を考慮してなされたもので、従来と比して一段と操作性を向上させた情報処理装置、データ分割方法及びデータ分割プログラムを提案しようとするものである。
かかる課題を解決するため本発明においては、操作部と、時間的に連続するデータの内容を時間軸に沿って表すデータ画像を表示部に表示させる制御部とを設け、制御部は、操作部を介してデータ画像上を時間軸に平行な方向になぞるジェスチャ操作が行われると、当該ジェスチャ操作によりなぞられている位置に応じた再生位置でデータを再生し、操作部を介してデータ画像を時間軸に対して垂直な方向になぞるジェスチャ操作が行われると、当該ジェスチャ操作によりなぞられた位置に応じた時間軸上の位置でデータを分割し、さらに、データ画像上を時間軸に平行な方向から垂直な方向へとなぞり方向を変えてなぞるジェスチャ操作が行われると、時間軸に平行な方向へなぞられている間は、平行になぞられている位置に応じた再生位置でデータを再生し、その後、なぞり方向が時間軸に垂直な方向に変わると、垂直になぞられた位置に応じた時間軸上の位置でデータを分割するようにした。
このように、時間的に連続するデータの内容を時間軸に沿って表すデータ画像を当該時間軸に対して垂直な方向になぞるジェスチャ操作に応じて当該データを分割するようにしたことにより、従来と比してより直感的な操作で、動画像の中からユーザが所望する部分を切り出すことができる。
本発明によれば、時間的に連続するデータの内容を時間軸に沿って表すデータ画像を当該時間軸に対して垂直な方向になぞるジェスチャ操作に応じて当該データを分割するようにしたことにより、従来と比してより直感的な操作で、動画像の中からユーザが所望する部分を切り出すことができる。かくして、従来と比して一段と操作性を向上させた情報処理装置、データ分割方法及びデータ分割プログラムを実現することができる。
実施の形態の概要となる情報処理装置の機能構成を示すブロック図である。 情報端末のハードウェア構成を示すブロック図である。 シーン、シーケンス及びムービーの関係の説明にともなう略線図である。 編集画面の説明にともなう略線図である。 シーケンスの再生(1)の説明にともなう略線図である。 シーケンスの再生(2)の説明にともなう略線図である。 シーケンスの分割(1)の説明にともなう略線図である。 シーケンスの分割(2)の説明にともなう略線図である。 シーケンスの結合の説明にともなう略線図である。 シーン数の増加の説明にともなう略線図である。 シーン数の減少の説明にともなう略線図である。 トランジションの設定の説明にともなう略線図である。 BGMの設定の説明にともなう略線図である。 BGMの再生範囲の変更の説明にともなう略線図である。 エフェクトの設定の説明にともなう略線図である。 エフェクトの適用範囲の変更の説明にともなう略線図である。 操作入力処理手順を示すフローチャートである。 他の実施の形態におけるトランジションの設定の説明にともなう略線図である。
以下、発明を実施するための最良の形態(以下実施の形態とする)について説明する。尚、説明は以下の順序で行う。
1.実施の形態の概要
2.実施の形態の具体例
3.他の実施の形態
<1.実施の形態の概要>
まず、実施の形態の概要を説明する。因みに、この概要を説明した後、本実施の形態の具体例、他の実施の形態の説明に移る。
図1において1は、情報処理装置を示す。この情報処理装置1には、操作部2と、時間的に連続するデータの内容を時間軸に沿って表すデータ画像を表示部3に表示させる制御部4とが設けられている。
制御部4は、操作部2を介して当該データ画像を当該時間軸に対して垂直に切るジェスチャ操作が行われると、当該ジェスチャ操作により切られた位置に応じた当該時間軸上の位置で当該データを分割するようになっている。
このように情報処理装置1は、時間的に連続するデータの内容を時間軸に沿って表すデータ画像を当該時間軸に対して垂直に切るジェスチャ操作に応じて当該データを分割するようにした。これにより、ユーザは、従来と比してより直感的な操作で、動画像の中から所望の部分を切り出すことができる。
より具体的には、当該時間的に連続するデータは、任意の時間間隔で区切られているようにしてもよい。この場合、制御部4は、当該データの区切られた各部分を部分データとして扱い、データ画像として、部分データごとに当該部分データの内容を表す部分データ画像を部分データの時系列に対応した順番で並べた画像を表示部3に表示させるようにしてもよい。そして制御部4は、操作部2を介して2つの部分データ画像の境界でデータ画像を時間軸に対して垂直に切るジェスチャ操作が行われると、当該2つの部分データ画像に対応する2つの部分データの境界の位置で当該データを分割するようにしてもよい。
またこの場合、制御部4は、データ画像を時間軸に沿って伸ばすジェスチャ操作が行われると、当該データを区切る時間間隔を短くすることにより当該データにおける部分データの数を増加させるようにしてもよい。さらにこの場合、制御部4は、データ画像を時間軸に沿って縮めるジェスチャ操作が行われると、当該データを区切る時間間隔を長くすることにより当該データにおける単位データの数を減少させるようにしてもよい。
さらに、制御部4は、当該データを再生すると共に、データ画像上の当該データの再生位置に対応する位置に時間軸に対して垂直なバーを表示させるようにしてもよい。この場合、制御部4は、操作部2を介して当該バーをなぞるジェスチャ操作が行われると、当該データの再生位置で当該データを分割するようにしてもよい。
またこの場合、制御部4は、操作部2を介してデータ画像を時間軸に沿ってなぞるジェスチャ操作が行われると、当該ジェスチャ操作によりなぞられている位置に応じた再生位置で当該データを再生するようにしてもよい。
さらに、制御部4は、データ画像の時間軸における先頭と異なるデータ画像の時間軸における末尾とを近づけるジェスチャ操作が行われると、これらのデータ画像に対応する2つの当該データを結合するようにしてもよい。
さらに、制御部4は、操作部2を介してデータ画像を押さえながら時間軸に対して垂直に切るジェスチャ操作が行われると、当該ジェスチャ操作により切られた位置に応じた時間軸上の位置で当該データを分割するようにしてもよい。
さらに、制御部4は、操作部2を介してデータ画像を時間軸に対して垂直に切るジェスチャ操作が往復して行われると、当該ジェスチャ操作により切られた位置に応じた時間軸上の位置で当該データを分割するようにしてもよい。
このような構成でなる情報処理装置1の具体例について、以下、詳しく説明する。
<2.実施の形態の具体例>
[2−1.情報端末のハードウェア構成]
次に、実施の形態の具体例について説明する。まず図2を用いて、上述した情報処理装置1の具体例である情報端末100のハードウェア構成について説明する。
情報端末100では、CPU101が、不揮発性メモリ102に格納されているプログラムをRAM103に展開して読み込み、このプログラムに従って各種処理を実行すると共に各部を制御する。尚、CPUは、Central Processing Unitの略、RAMは、Random Access Memoryの略である。
また、情報端末100は、タッチスクリーン104に対する、指によるタッチ操作を、ユーザによる操作入力として受け付けるようになっている。タッチスクリーン104は、各種情報を表示する表示デバイスである液晶パネル104Aと、操作入力を受け付ける操作入力デバイスであるタッチパネル104Bとで構成される。因みに、このタッチパネル104Bは、例えば静電容量式で、マルチタッチに対応する。
タッチパネル104Bは、タッチパネル104B上の任意の位置が指でタッチされると、タッチされた位置(すなわちタッチ位置)の座標を検出する。そしてタッチパネル104Bは、このタッチ位置の座標を示す入力信号をCPU101に送る。
尚、タッチパネル104Bは、ドラッグされているとき等、タッチされ続けている間、一定時間ごとに、タッチ位置の座標を示す入力信号をCPU101に送るようになっている。
CPU101は、タッチパネル104Bから送られてくる入力信号からタッチ位置の座標を取得すると、この座標を液晶パネル104Aの画面座標に変換することで、液晶パネル104Aの画面上のどの位置がタッチされたのかを認識する。つまり画面上のタッチ位置を認識する。
またCPU101は、一定時間ごとに送られてくる入力信号より取得したタッチ位置の座標を、順次液晶パネル104Aの画面座標に変換していくことで、タッチ位置がどのように動いたのか(すなわちタッチ位置の軌跡)を認識する。
CPU101は、このようにして認識したタッチ位置とその軌跡とに基づいて、画面に対してどのようなジェスチャ操作が行われたのかを特定し、このジェスチャ操作を操作入力として受け付け、この操作入力に応じた処理を実行する。
尚、CPU101は、タッチ(触る)、タップ(触って離す)、ドラッグ(なぞる)、フリック(払う)、ホールド(同じ位置を触り続ける)等のジェスチャ操作を、操作入力として受け付けるようになっている。
またCPU101は、操作ボタン105に対する押下操作を認識すると、これをユーザによる操作入力として受け付け、この操作入力に応じた処理を実行するようにもなっている。
ここで、例えば、タッチスクリーン104に、不揮発性メモリ102に画像ファイルとして記憶されている画像のサムネイルが一覧表示されている状態で、ユーザが、所望のサムネイルをタップしたとする。
CPU101は、この操作を、画像を再生する操作入力として受け付け、不揮発性メモリ102から、タップされたサムネイルに対応する画像ファイルを読み出す。
ここで、対応する画像ファイルが静止画像ファイルである場合、CPU101は、この静止画像ファイルから静止画像データを抽出する。そしてCPU101は、この静止画像データに対して、デコード処理、デジタルアナログ変換処理等の所定の再生処理を施すことで、静止画像信号を得、これをタッチスクリーン104の液晶パネル104Aに表示させる。
一方、対応する画像ファイルが動画像ファイルである場合、CPU101は、この動画像ファイルから動画像データと音声データとを分離する。そしてCPU101は、動画像データに対して、デコード処理、デジタルアナログ変換処理等の所定の再生処理を施すことで、動画像信号を得、これをタッチスクリーン104の液晶パネル104Aに表示させる。またCPU101は、音声データに対して、デコード処理、デジタルアナログ変換処理、増幅処理等の所定の再生処理を施すことで、音声信号を得、これをヘッドホン端子(図示せず)から出力する。
このようにして、情報端末100は、ユーザに指定された画像を再生するようになっている。
また、例えば、タッチスクリーン104に、不揮発性メモリ102に楽曲ファイルとして記憶されている楽曲のタイトルがリスト表示されている状態で、ユーザが、所望のタイトルをタップしたとする。
CPU101は、この操作を、楽曲を再生する操作入力として受け付け、不揮発性メモリ102から、タップされたタイトルに対応する楽曲ファイルを読み出す。
CPU101は、この楽曲ファイルから音声データを抽出する。そしてCPU101は、この音声データに対して、デコード処理、デジタルアナログ変換処理、増幅処理等所定の再生処理を施すことで、音声信号を得、これをヘッドホン端子(図示せず)から出力する。
このようにして、情報端末100は、ユーザに指定された楽曲を再生するようになっている。
またこのときCPU101は、読み出した楽曲ファイルから、ジャケット画像、楽曲のタイトル、アルバムのタイトル、アーティスト名等の関連情報を抽出して、これをタッチスクリーン104の液晶パネル104Aに表示させる。
このようにして、情報端末100は、ユーザに指定された楽曲を再生するとともに、この楽曲に関する情報を表示するようになっている。
さらに、例えば、タッチスクリーン104に、Webブラウザの起動に対応するアイコンが表示されている状態で、ユーザが、このアイコンをタップしたとする。
CPU101は、この操作を、Webブラウザを起動する操作入力として受け付け、不揮発性メモリ102から、Webブラウザのプログラムを読み出して実行することで、Webブラウザを起動する。
ここでCPU101は、タッチスクリーン104の液晶パネル104AにWebブラウザの画面を表示させると共に、ネットワークインタフェース106を介して、ネットワーク上のサーバからWebページのページデータを受信する。そしてCPU101は、このページデータに基づくページ画像を、Webブラウザの画面に表示させる。
このようにして、情報端末100は、Webブラウザを起動してWebページを表示するようになっている。
因みに、実施の形態の概要で説明した情報処理装置1の操作部2の具体的なハードウェアの例が上述した情報端末100のタッチパネル104Bである。また情報処理装置1の表示部3の具体的なハードウェアの例が情報端末100の液晶パネル104Aである。さらに情報処理装置1の制御部4の具体的なハードウェアの例が情報端末100のCPU101である。
[2−2.動画像編集アプリ]
ところで、情報端末100には、様々なアプリケーション(単にアプリとも呼ぶ)をインストールできるようになっており、その一つとして、動画像を編集するアプリ(動画像編集アプリとも呼ぶ)がインストールされている。以下、この動画像編集アプリにおける操作入力について詳しく説明する。
尚、この動画像編集アプリでは、図3に示すように、動画像データが、シーン及びシーケンスという2つの単位を用いて扱われるようになっている。ここで、シーケンスとは、シーンの集合である。また、シーンとは、動画像データから抽出された任意の区間の動画像データである。
この動画像編集アプリでは、シーケンスを分割したり、他のシーケンスとつなぎ合わせたりすることにより動画像を編集して、編集結果としての新たな動画像(ムービー)を作成し、このムービーを一つの動画像ファイルとして出力できるようになっている。
CPU101は、タッチスクリーン104に動画像編集アプリの起動に対応するアイコンを表示させた状態で、このアイコンがタップされると、この操作を、動画像編集アプリを起動する操作入力として受け付ける。
そしてCPU101は、不揮発性メモリ102から、動画像編集アプリのプログラムを読み出して実行することで、動画像編集アプリを起動する。
動画像編集アプリを起動すると、CPU101は、図4に示す編集画面200をタッチスクリーン104に表示させる。
編集画面200には、不揮発性メモリ102に動画像ファイルとして記憶されている動画像のサムネイル画像(これをファイル画像とも呼ぶ)Fpを一覧表示させるファイル一覧ウィンドウ201が表示される。因みに、このファイル画像Fpは、例えば、動画像の先頭フレームのサムネイル画像である。
ここで、ファイル画像Fp内を1本の指でドラッグする操作が行われたとする。するとCPU101は、当該ドラッグに応じてファイル画像Fpの表示位置を移動させる。
その後、ファイル画像Fpが編集画面200内におけるファイル一覧ウィンドウ201外の領域に移動された後、指が離されたとする。するとCPU101は、ドラッグされたファイル画像Fpに対応する動画像ファイルを動画像編集アプリにインポートする。
具体的にCPU101は、当該動画像を所定時間間隔ごとに区切った各動画像をそれぞれシーンとして設定すると共に、これらのシーンの集合(すなわち当該動画像)を一つのシーケンスとして設定する。
そしてCPU101は、各シーンの先頭フレームのサムネイル画像(これをシーン画像とも呼ぶ)Npを生成する。CPU101は、これら各シーンのシーン画像Npを、例えば映画フィルムのように、左から右に各シーンの時系列に対応した順番で一列に並べてつなげたシーケンス画像Kpを生成する。つまりこのシーケンス画像Kpは、シーケンスの内容を左から右へ時間が進むような時間軸に沿って表しており、シーケンス画像Kpの横方向がシーケンスの時間軸に対応している。
CPU101は、このようなシーケンス画像Kpを、ファイル画像Fpがドラッグされて指が離された位置に表示させる。
このように編集画面200では、ユーザが所望の動画像に対応するファイル画像Fpをファイル一覧ウィンドウ201外にドラッグすることで、所望の動画像の内容を時間軸に沿って表すシーケンス画像Kpを所望の位置に表示できるようになっている。
また編集画面200には、再生した動画像を表示させるプレビューウィンドウ202が表示されるようになっている。
ここで、ファイル一覧ウィンドウ201又はプレビューウィンドウ202を2本の指でドラッグする操作が行われたとする。するとCPU101は、この操作を、ファイル一覧ウィンドウ201又はプレビューウィンドウ202の表示位置を移動させる操作入力として受け付け、当該ドラッグに応じてこれらの表示位置を移動させる。
また、シーケンス画像Kpを2本の指でドラッグする操作が行われたとする。するとCPU101は、この操作を、シーケンス画像Kpの表示位置を移動する操作入力として受け付け、当該ドラッグに応じてシーケンス画像Kpの表示位置を移動させる。すなわち編集画面200では、ドラッグに応じてシーン画像Npごとに表示位置が移動するのではなく、シーン画像Npのまとまりであるシーケンス画像Kpごとに表示位置が移動するようになっている。
このように編集画面200では、ユーザが、ファイル一覧ウィンドウ201、プレビューウィンドウ202又はシーケンス画像Kpを2本の指でドラッグすることで、これらの配置を自由に変更することができるようになっている。
また、図5に示すように、シーケンス画像Kp内のシーン画像Npをタップする操作が行われたとする。するとCPU101は、この操作を、シーケンスを再生する操作入力として受け付け、タップされたシーン画像Npに対応するシーンの先頭フレームから当該シーケンス画像Kpに対応するシーケンスを再生してプレビューウィンドウ202に表示させる。
このように、編集画面200では、ユーザが所望するシーケンスを所望のシーンから再生できるようになっている。
尚、シーケンスを再生しているときに、プレビューウィンドウ202内がタップされると、CPU101は、当該シーケンスの再生を一時停止する。その後、再度プレビューウィンドウ202内がタップされると、CPU101は、一時停止されていた位置から当該シーケンスを再生するようになっている。
また図6に示すように、シーケンス画像Kp内を1本の指で横方向(すなわち時間軸に平行な方向)にドラッグする操作が行われたとする。
するとCPU101は、シーケンス画像Kpに対応するシーケンスを、タッチ位置に対応する時間軸上の位置で再生して、プレビューウィンドウ202に表示させる。このときCPU101は、タッチ位置の移動(すなわちドラッグ)に応じてシーケンスの再生位置を変えていくと共に、プレビューウィンドウ202の表示を切り換えていく。
尚、シーケンス画像Kpにおいて、各シーン画像Np内の横方向の位置が、各シーン内における時間軸上の位置に対応する。また、上述したようにシーケンス画像Kpの横方向がシーケンスの時間軸に対応しており、左から右へと時間が進むようになっている。したがって、各シーン画像Npにおいて、左端の位置が各シーンの先頭フレームに対応し、右端の位置がシーンの末尾フレームに対応する。また各シーン画像Np内における横方向の位置が、各シーン内における時間軸上の位置(すなわち各シーンの先頭からの経過時間)に対応する。
ゆえにCPU101は、例えば、タッチ位置がシーン画像Npの左端にあるときには、当該シーン画像Npに対応するシーンの先頭フレームの画像をプレビューウィンドウ202に表示させる。
またこのとき、CPU101は、タッチ位置に、シーケンス画像Kpの縦幅よりも少し長い縦長棒状のシークバーBsをシーケンス画像Kpに重ねて表示させ、ドラッグに合わせてシークバーBsを横方向に移動させるようになっている。すなわちシークバーBsは、シーケンスの現在の再生位置を示すようになっている。
尚、このようにドラッグに応じて再生位置を変えながら行うシーケンスの再生を以下、シーク再生とも呼び、シークバーBsによって示されるシーケンスの再生位置を、以下、シーク位置とも呼ぶ。
このように編集画面200では、シーケンス画像Kpを1本の指で時間軸に平行な方向にドラッグする操作(すなわち時間軸に沿ってなぞるジェスチャ操作)を、シーケンスをシーク再生する操作入力として受け付ける。これにより、ユーザはシーケンスの再生位置を所望の位置に変えることができ、シーケンスの中身(すなわち動画像の内容)を検索(いわゆるシーク)することができるようになっている。
尚、指が離されて当該ドラッグが終了されると、CPU101は、指が離された時点における再生位置の画像をプレビューウィンドウ202に表示させたままとする(すなわち当該再生位置で一時停止した状態とする)。また、CPU101は、シークバーBsを表示させたままとする。
その後、シーケンス画像Kpがタップされた場合には、CPU101は、シークバーBsを画面から消去させると共に、プレビューウィンドウ202の表示を、タップされたシーケンス画像Kpに対応するシーケンスの動画像に切り換えるようになっている。
一方、その後、シーケンス画像Kpに対して1本の指で横方向にドラッグする操作が行われた場合には、CPU101は、今まで表示させていたシークバーBsを画面から消去させると共に、新たなタッチ位置にシークバーBsを表示させる。これと共に、CPU101は、プレビューウィンドウ202の表示を、新たなタッチ位置(シークバーBsの表示位置)に応じた再生位置の画像に切り換えるようになっている。
また、図7(A)に示すように、シーン1からシーン5までを有するシーケンス1のシーケンス画像Kpが編集画面200に表示されているとする。ここで、当該シーケンス画像Kp内を1本の指でホールドする操作が行われたとする。するとCPU101は、この操作を、シーケンスを編集対象として選択する操作入力として受け付け、ホールドされたシーケンス画像Kpに対応するシーケンス(ここではシーケンス1)を編集対象として選択する。
尚、ホールドしている指が離されると、CPU101は、シーケンスの編集対象としての選択を解除するようになっている。
ここで、シーケンス画像Kp内を1本の指でホールドしたまま、別の1本の指によってシーン2のシーン画像Npとシーン3のシーン画像Npとの境界を上から下になぞる(ドラッグする)操作が行われたとする。
するとCPU101は、この操作を、編集対象として選択しているシーケンスを2つのシーンの境界で分割する操作入力として受け付ける。そしてCPU101は、図7(B)に示すように、シーン2とシーン3との境界でシーケンス1を分割して、シーン1及びシーン2を新たなシーケンス2として設定し、シーン3からシーン5を新たなシーケンス3として設定する。
またこのときCPU101は、シーケンス1のシーケンス画像Kpを、シーン2のシーン画像Npとシーン3のシーン画像Npとの境界において切り分け、新たなシーケンス2のシーケンス画像Kpと、新たなシーケンス3のシーケンス画像Kpとする。
一方、図8(A)に示すように、シーン6からシーン10を有するシーケンス4のシーケンス画像Kpが編集画面200に表示され、シーン8のシーン画像Np上に、シークバーBsが表示されているとする。ここで、当該シーケンス画像Kp内を1本の指でホールドする操作が行われたとする。するとCPU101は、ホールドされたシーケンス画像Kpに対応するシーケンス(ここではシーケンス4)を編集対象として選択する。
さらに、当該シーケンス画像Kp内を1本の指でホールドしたまま、別の1本の指によってシークバーBsを上から下になぞる(ドラッグする)操作が行われたとする。
するとCPU101は、この操作を、編集対象として選択しているシーケンスをシーク位置で分割する操作入力として受け付ける。そしてCPU101は、図8(B)に示すように、当該シークバーBsが示すシーン8の時間軸上の位置(すなわちシーク位置)でシーン8及びシーケンス4を分割する。
そしてCPU101は、図8(C)に示すように、シーン8の先頭から当該分割の位置までの動画像を新たなシーン8(a)として設定し、当該分割の位置からシーン8の末尾までの動画像を新たなシーン8(b)として設定する。またCPU101は、シーン6からシーン8(a)までを新たなシーケンス5として設定し、シーン8(b)からシーン10までを新たなシーケンス6として設定する。
またこのときCPU101は、図8(B)に示すように、シークバーBsの表示位置でシーン8のシーン画像Npを切り分けることで、シーケンス4のシーケンス画像Kpを切り分ける。
その後CPU101は、図8(C)に示すように、シーン7のシーン画像Npの右隣にシーン8(a)のシーン画像Npを表示し、シーン6からシーン8(a)のシーン画像Npのまとまりを新たなシーケンス5のシーケンス画像Kpとする。これと共にCPU101は、シーン9のシーン画像Npの左隣にシーン8(b)のシーン画像Npを表示し、シーン8(b)からシーン10のシーン画像Npのまとまりを新たなシーケンス6のシーケンス画像Kpとする。
このようにCPU101は、シーケンス画像Kpを1本の指でホールドしながら、別の1本の指によって当該シーケンス画像Kp内を縦方向(すなわち時間軸に対して垂直な方向)にドラッグする操作を、シーケンスを分割する操作入力として受け付ける。
換言すればCPU101は、シーケンス画像Kpを1本の指で押さえながら別の1本の指で時間軸に対して垂直に切るジェスチャ操作を、シーケンスを分割する操作入力として受け付ける。
そしてCPU101は、当該ジェスチャ操作により切られた位置がシーン画像Npの境界である場合にはシーンの境界でシーケンスを分割し、シークバーBsの表示位置である場合にはシーク位置でシーケンスを分割する。
尚、実際上、CPU101は、時間軸に垂直なドラッグが行われた位置が厳密にシーン画像Npの境界又はシークバーBsの表示位置でなくても、シーン画像Npの境界又はシークバーBsの表示位置を切るジェスチャ操作として認識するようになっている。
具体的にCPU101は、シークバーBsが表示されていないときには、時間軸に垂直なドラッグが行われた位置に最も近いシーン画像Npの境界を切るジェスチャ操作として当該ドラッグを認識するようになっている。
またCPU101は、シークバーBsが表示されているときには、時間軸に垂直なドラッグが行われた位置が、シーン画像Npの境界とシークバーBsの表示位置のうちどちらに近いかを判別する。そしてCPU101は、シーン画像Npの境界の方に近い場合には、時間軸に垂直なドラッグが行われた位置に最も近いシーン画像Npの境界を切るジェスチャ操作として当該ドラッグを認識する。一方CPU101は、シークバーBsの表示位置の方に近い場合には、シークバーBsの表示位置で切るジェスチャ操作(すなわちシークバーBsをなぞるジェスチャ操作)として当該ドラッグを認識するようになっている。
また図9(A)に示すように、シーン11からシーン12を有するシーケンス7のシーケンス画像Kpと、シーン21からシーン23を有するシーケンス8のシーケンス画像Kpとが編集画面200に表示されているとする。ここで、シーケンス7のシーケンス画像Kpを1本の指でホールドする操作が行われたとする。するとCPU101は、ホールドされたシーケンス画像Kpに対応するシーケンス(ここではシーケンス7)を編集対象として選択する。
そして、シーケンス7のシーケンス画像Kp内を1本の指でホールドしたまま、シーケンス8のシーケンス画像Kp内を別の1本の指でドラッグする操作が行われたとする。
するとCPU101は、シーケンス7に加えシーケンス8も編集対象として選択し、シーケンス8のシーケンス画像Kpの表示位置をドラッグに応じて移動させる。
その後、シーケンス7の末尾シーン(シーン12)のシーン画像Npとシーケンス8の先頭シーン(シーン21)のシーン画像Npとが近づき、これらの距離が所定値以下になったとする。
するとCPU101は、この操作を、編集対象として選択している2つのシーケンスを結合する操作入力として受け付ける。そしてCPU101は、図9(B)に示すように、シーケンス7の末尾シーンとシーケンス8の先頭シーンとをつなげて2つのシーケンスを結合し、シーン11からシーン12及びシーン21からシーン23を新たな一つのシーケンス9として設定する。
またこのときCPU101は、シーン12のシーン画像Npの右側にシーン21のシーン画像Npの左側をつなげることでシーケンス7とシーケンス8のシーケンス画像Kpをつなげ、新たなシーケンス9のシーケンス画像Kpとする。
一方、シーケンス8のシーケンス画像Kpがドラッグされた結果、シーケンス8の末尾シーン(シーン23)のシーン画像Npとシーケンス7の先頭シーン(シーン11)のシーン画像Npとが近づき、これらの距離が所定値以下になったとする。
この場合、CPU101は、シーケンス8の末尾シーンとシーケンス7の先頭シーンとをつなげて2つのシーケンスを結合するようになっている。
尚、CPU101は、編集対象として選択しているシーケンスのみを結合するようになっている。すなわち、CPU101は、シーケンス8のシーケンス画像Kpがドラッグされた結果、編集対象として選択していないシーケンスのシーケンス画像Kpと近づいても、当該シーケンスとシーケンス8とを結合しないようになっている。
このようにCPU101は、シーケンス画像Kpの時間軸における先頭と、異なるシーケンス画像Kpの時間軸における末尾とを近づけるジェスチャ操作に応じて、当該2つのシーケンス画像Kpに対応する2つのシーケンスを結合するようになっている。
以上のように編集画面200では、ユーザの所望に応じてシーケンスを分割したり結合したりすることができ、ユーザの所望に応じた動画像の編集を行うことができるようになっている。
さらにこの編集画面200では、シーケンス内におけるシーンの数を変更できるようになっている。
図10(A)に示すように、シーン31からシーン34を有するシーケンス10のシーケンス画像Kpが編集画面200に表示されているとする。ここで、シーケンス10のシーケンス画像Kp内を1本の指でホールドする操作が行われたとする。するとCPU101は、ホールドされたシーケンス画像Kpに対応するシーケンス(ここではシーケンス10)を編集対象として選択する。
またここで、当該シーケンス画像Kp内におけるシーン32のシーン画像Np内を1本の指でホールドしたまま、シーン33のシーン画像Npを1本の指でタッチして右方向(2本の指の横方向の間隔を広げる方向)にドラッグする操作が行われたとする。尚、ここではホールドしている指のタッチ位置が画面左側にあり、ドラッグしている指のタッチ位置が画面右側にあるとする。
するとCPU101は、この操作を、編集対象として選択しているシーケンスにおけるシーンの数を増加させる操作入力として受け付ける。そしてCPU101は、図10(B)に示すように、タッチしているシーン32からシーン33までのシーン画像Npの横幅を右方向のドラッグに応じて均等に伸ばす。
そして、CPU101は、ドラッグの横方向の操作量、すなわちタッチ位置の間隔の横方向の変化量がシーン画像Npの横幅1個分に達すると、シーン32の先頭からシーン33の末尾までの動画像において、シーンの数を1個増やして3個とする。
具体的にCPU101は、シーン32の先頭からシーン33の末尾までの動画像(シーン32及びシーン33をつなげた動画像)を3等分し、図10(C)に示すように、3等分された各動画像を新たなシーン41、シーン42及びシーン43として設定する。
例えば、シーン32及びシーン33の長さがそれぞれ15分であったとすれば、シーン32の先頭からシーン33の末尾までの動画像の長さは30分であり、当該動画像を3等分すると、1シーンあたりの長さは10分となる。すなわち、シーン41、シーン42及びシーン43の長さはそれぞれ10分となる。
このように新たなシーン41、シーン42及びシーン43を設定すると、CPU101は、シーン32及びシーン33のシーン画像Npの表示を、新たなシーン41、シーン42及びシーン43のシーン画像Npに置き換える。
同様にして、シーン32の先頭からシーン33の末尾までの動画像におけるシーンの数は、ドラッグの横方向の操作量が、シーン画像Npの横幅2個分であれば、ドラッグ前よりも2枚増加し、3個分であれば、ドラッグ前よりも3枚増加する。
このようにCPU101は、シーケンス画像Kp内にタッチした2本の指の間隔を広げる操作、すなわちシーケンス画像Kpを伸ばすジェスチャ操作を、シーケンスにおけるシーンの数を増加させる操作入力として受け付ける。そしてCPU101は、2本の指の間にあるシーンをつなげた動画像において、シーンを設定する時間間隔をより短くすることにより、シーンの数を増加させるようになっている。
これにより、編集画面200では、直感的な操作でシーケンスにおけるシーンの数を増やすことができ、シーケンスに対して細かい単位での編集、すなわち局所的な編集を行うことができる。
また、図11(A)に示すように、シーン51からシーン54を有するシーケンス11のシーケンス画像Kpが編集画面200に表示されているとする。ここで、シーケンス11のシーケンス画像Kp内を1本の指でホールドする操作が行われたとする。するとCPU101は、ホールドされたシーケンス画像Kpに対応するシーケンス(ここではシーケンス11)を編集対象として選択する。
またここで、シーン51のシーン画像Npを1本の指でホールドしたまま、シーン53のシーン画像Npを1本の指で左方向(2本の指の横方向の間隔を狭める方向)にドラッグする操作が行われたとする。尚、ここではホールドしている指のタッチ位置が画面左側にあり、ドラッグしている指のタッチ位置が画面右側にあるとする。
するとCPU101は、この操作を、編集対象として選択しているシーケンスにおけるシーンの数を減少させる操作入力として受け付ける。そしてCPU101は、図11(B)に示すように、タッチしているシーン51からシーン53までのシーン画像Npの横幅を左方向のドラッグに応じて均等に縮める。
そして、CPU101は、ドラッグの横方向の操作量、すなわちタッチ位置の間隔の横方向の変化量がシーン画像Npの横幅1個分に達すると、シーン51の先頭からシーン53の末尾までの動画像において、シーンの数を1個減らして2個とする。
具体的にCPU101は、シーン51の先頭からシーン53の末尾までの動画像(シーン51からシーン53までをつなげた動画像)を2等分し、図11(C)に示すように、2等分された各動画像を新たなシーン61及びシーン62として設定する。
例えば、シーン51、シーン52及びシーン53の長さがそれぞれ10分であったとすれば、シーン51の先頭からシーン53の末尾までの動画像の長さは30分であり、当該動画像を3等分すると、1シーンあたりの長さは15分となる。すなわち、シーン61及びシーン62の長さはそれぞれ15分となる。
このように新たなシーン61及びシーン62を設定すると、CPU101は、シーン51からシーン53までのシーン画像Npの表示を、新たなシーン61及びシーン62のシーン画像Npに置き換える。
同様にして、シーン51の先頭からシーン53の末尾までの動画像におけるシーンの数は、ドラッグの横方向の操作量が、シーン画像Npの横幅2個分であれば、ドラッグ前よりも2枚減少し、3個分であれば、ドラッグ前よりも3枚減少する。
このようにCPU101は、シーケンス画像Kp内にタッチした2本の指の間隔を狭める操作、すなわちシーケンス画像Kpを縮めるジェスチャ操作を、シーケンスにおけるシーンの数を減少させる操作入力として受け付ける。そしてCPU101は、2本の指の間にあるシーンをつなげた動画像において、シーンを設定する時間間隔をより長くすることにより、シーンの数を減少させるようになっている。
これにより、編集画面200では、直感的な操作でシーケンスにおけるシーンの数を減らすことができ、シーケンスに対して大きな単位での編集、すなわち大局的な編集を行うことができる。
さらにこの編集画面200では、各シーケンスにおいて、シーンのつなぎ目にトランジションを設定できるようになっている。
具体的に、編集画面200には、例えば、フェードイン、フェードアウト、ワイプなどといったトランジションごとに、各トランジションを示すトランジションアイコンTaがユーザ操作に応じて表示されるようになっている。このトランジションアイコンTaは、図12(A)に示すように、1本の指のドラッグでその表示位置を移動できるようになっている。
ここで、シーン71からシーン74を有するシーケンス12のシーケンス画像Kpが編集画面200に表示されているとする。このとき、シーン71のシーン画像Npとシーン72のシーン画像Npとの境界に、トランジションアイコンTaが1本の指でドラッグされて近づき、当該境界とトランジションアイコンTaとの距離が所定値以下となったとする。
するとCPU101は、この操作を、トランジションを設定する操作入力として受け付け、シーン71とシーン72とのつなぎ目に、ドラッグされたトランジションアイコンTaに対応するトランジション(ここでは、ワイプ)を設定する。これと共に、CPU101は、図12(B)に示すように、シーケンス画像Kpにおいて、シーン71のシーン画像Npとシーン72のシーン画像Npとを切り離し、これらの間にトランジションアイコンTaを挿入する。
このようにして編集画面200では、所望のシーンのつなぎ目に所望のトランジションを設定することができるようになっている。
さらにこの編集画面200では、各シーケンスにおいて、BGM(Back Ground Music)を設定できるようになっている。
具体的に、編集画面200には、不揮発性メモリ102に楽曲ファイルとして記憶されている楽曲ごとに、各楽曲のジャケット写真画像Jpが、ユーザ操作に応じて一覧で表示されるようになっている。このジャケット写真画像Jpは、図13(A)に示すように、1本の指のドラッグでその表示位置を移動できるようになっている。
ここで、シーン76からシーン78を有するシーケンス13のシーケンス画像Kpが表示されているとする。このとき、シーケンス画像Kpの左端(すなわちシーケンス13の先頭を示す位置)に、ジャケット写真画像Jpが1本の指でドラッグされて近づいて、当該左端と当該ジャケット写真画像Jpとの距離が所定値以下となったとする。
するとCPU101は、この操作を、BGMを設定する操作入力として受け付け、ドラッグされたジャケット写真画像Jpに対応する楽曲を、シーケンス13の先頭から再生するBGMとして設定する。
これと共にCPU101は、ジャケット写真画像Jpをシーケンス画像Kpの下側に吸い付くようにアニメーションさせると共にBGMアイコンBaに変化させる。このBGMアイコンBaは、図13(B)に示すように、シーケンス画像Kpの下側近傍に横長矩形状で表示され、BGMとして設定した楽曲のタイトルが表示される。
またこのBGMアイコンBaは、横幅がBGMの再生範囲を示すようになっている。例えば、図13(B)に示すように、BGMアイコンBaの横幅がシーン76のシーン画像Npの左端からシーン78のシーン画像Npの途中までの長さであるときは、このBGMがシーン76の先頭からシーン78の途中まで再生されることを示す。
このようにして編集画面200では、所望の楽曲を所望のシーケンスのBGMとして設定することができるようになっている。
またBGMが設定された後、図14(A)に示すように、BGMアイコンBaを1本の指でホールドしながら、別の1本の指でBGMアイコンBaをタッチして左方向(2本の指の横方向の間隔を狭める方向)にドラッグする操作が行われたとする。尚、ここではホールドしている指が左側にあり、ドラッグしている指が右側にあるとする。
するとCPU101は、図14(B)に示すように、左方向のドラッグに応じてBGMアイコンBaを右側から左方向に縮めると共に、BGMの再生範囲を、この縮められた後のBGMアイコンBaの横幅が示す範囲に設定する。一例として、図14(B)では、BGMの再生範囲が、シーン76からシーン77の途中までに縮められている。
一方、BGMアイコンBaを1本の指でホールドしながら、別の1本の指でBGMアイコンBaをタッチして2本の指の横方向の間隔を広げる方向にドラッグする操作が行われたとする。
この場合CPU101は、当該ドラッグに応じてBGMアイコンBaの横幅を伸ばすと共に、BGMの再生範囲を、この伸ばされた後のBGMアイコンBaの横幅が示す範囲に設定するようになっている。
このように編集画面200では、BGMアイコンBaを1本の指でホールドしながら別の1本の指で横方向にドラッグする操作、すなわちBGMアイコンBaを伸縮するジェスチャ操作に応じて、BGMの再生範囲を伸縮できるようになっている。
さらにこの編集画面200では、各シーケンスにおいて、シーンごとにエフェクトを設定できるようになっている。
具体的に、編集画面200には、例えば、モノトーン、セピアなどといったエフェクトごとに、各エフェクトを示すエフェクトアイコンEaが、ユーザ操作に応じて表示されるようになっている。このエフェクトアイコンEaは、図15(A)に示すように、1本の指のドラッグでその表示位置を移動できるようになっている。
ここで、シーン81からシーン84を有するシーケンス14のシーケンス画像Kpが表示されているとする。このとき、セピアを示すエフェクトアイコンEaが1本の指でドラッグされてシーン82のシーン画像Npに近づき、これらの距離が所定値以下となったとする。
するとCPU101は、この操作を、エフェクトを設定する操作入力として受け付け、シーン82に、ドラッグされたエフェクトアイコンEaが示すエフェクト(ここではセピア)を設定する。これと共に、CPU101は、図15(B)に示すように、エフェクトアイコンEaをシーン画像Npの下側に吸い付くようにアニメーションさせると共に横長矩形状に変化させる。
このエフェクトアイコンEaの横幅は、エフェクトの適用範囲を示すようになっている。例えば、図15(B)では、エフェクトアイコンEaの横幅は、シーン82のシーン画像Npと同じ横幅で表示され、シーン82にセピアのエフェクトが設定されていることを示す。
このようにして編集画面200では、所望のシーンに所望のエフェクトを設定することができるようになっている。
またエフェクトが設定された後、図16(A)に示すように、エフェクトアイコンEaを1本の指でホールドしながら、別の1本の指でエフェクトアイコンEaをタッチして右方向(2本の指の間隔を広げる方向)にドラッグする操作が行われたとする。尚、ここでホールドしている指が左側にあり、ドラッグしている指が右側にあるとする。
するとCPU101は、図16(B)に示すように、右方向のドラッグに応じてエフェクトアイコンEaを右側から右方向に伸ばす。そして、CPU101は、ドラッグの横方向の操作量、すなわちタッチ位置の間隔の横方向の変化量がシーン画像Npの横幅1個分に達すると、エフェクトの適用範囲を右隣のシーン83まで広げる。
同様にして、CPU101は、エフェクトの適用範囲を、ドラッグの横方向の操作量が、シーン画像Npの横幅2個分であれば、ドラッグ前よりもシーン2個分広げ、3個分であれば、ドラッグ前よりもシーン3個分広げる。すなわちCPU101は、エフェクトの適用範囲をシーン単位で変更するようになっている。
また一方、エフェクトアイコンEaを1本の指でホールドしながら、別の1本の指でエフェクトアイコンEaをタッチして2本の指の間隔を狭める方向にドラッグする操作が行われたとする。
この場合CPU101は、当該ドラッグに応じてエフェクトアイコンEaの横幅を縮めると共に、ドラッグの横方向の操作量がシーン画像Npの横幅1個分に達すると、エフェクトの適用範囲をシーン1つ分狭めるようになっている。
このように編集画面200では、エフェクトアイコンEaを1本の指でホールドしながら別の1本の指で横方向にドラッグする操作、すなわちエフェクトアイコンEaを伸縮するジェスチャ操作に応じて、エフェクトの適用範囲を伸縮できるようになっている。
また、このようなトランジション、エフェクト又はBGMが設定されたシーケンスを上述したように分割する場合について、以下、説明する。
例えば、トランジションが設定されたシーケンスに対応するシーケンス画像Kpに対し、当該シーケンス画像Kpを1本の指で押さえながら別の1本の指で時間軸に対して垂直に切るジェスチャ操作が行われたとする。
するとCPU101は、当該ジェスチャ操作により切られた位置がトランジションの設定がされているシーン境界に対応するシーン画像Npの境界である場合は、シーケンスを分割すると共にトランジションの設定を解除する。一方、ジェスチャ操作により切られた位置がトランジションの設定がされているシーン境界に対応するシーン画像Npの境界以外である場合、トランジションの設定はそのままにシーケンスを分割する。
また、BGMが設定されたシーケンスに対応するシーケンス画像Kpに対し、当該シーケンス画像Kpを1本の指で押さえながら別の1本の指で時間軸に対して垂直に切るジェスチャ操作が行われたとする。
するとCPU101は、当該ジェスチャ操作に応じてシーケンスを分割する。これと共にCPU101は、分割の結果新しく設定されたシーケンスのうち、BGMの先頭側であったシーケンスについては当該BGMの設定をそのままにし、他方のシーケンスについては当該BGMの設定を解除する。
また、エフェクトが設定されたシーケンスに対応するシーケンス画像Kpに対し、当該シーケンス画像Kpを1本の指で押さえながら別の1本の指で時間軸に対して垂直に切るジェスチャ操作が行われたとする。
するとCPU101は、ジェスチャ操作により切られた位置がエフェクトの設定がされているシーンのシーン画像Np内である場合には、シーンを分割すると共に、分割の結果新しく設定されたシーンのそれぞれに当該エフェクトを設定する。一方、CPU101は、ジェスチャ操作により切られた位置がエフェクトの設定がされているシーンのシーン画像Np外である場合には、エフェクトの設定はそのままにシーケンスを分割する。
このように編集画面200では、トランジション、エフェクト又はBGMが設定されたシーケンスを分割する際に、必要に応じてこれらの設定を変更するようになっている。
[2−3.操作入力処理手順]
次に、上述した動画像編集アプリで、シーケンス画像Kpに対してジェスチャ操作を行う場合の操作入力処理手順について、図17に示すフローチャートを用いて説明する。
尚、図17に示す操作入力処理手順RT1は、情報端末100のCPU101が、不揮発性メモリ102に格納されている動画像編集アプリのプログラムにしたがって実行する処理の手順である。
CPU101は、動画像編集アプリの起動後、ユーザ操作に応じてシーケンス画像Kpを表示させ、当該シーケンス画像Kp内の任意の箇所がタッチされると、この操作入力処理手順RT1を開始して、ステップSP1に移る。ステップSP1においてCPU101は、タッチパネル104Bからの入力信号をもとに、タッチパネル104Bに対して指が1本のみタッチされているか否かを判別する。
このステップSP1において肯定結果を得ると、このときCPU101は、ステップSP2に移り、このときドラッグが行われているか否かを判別する。
このステップSP2において肯定結果を得ると、このことは、シーケンス画像Kp内を1本の指でドラッグする操作が行われたことを意味する。このときCPU101は、ステップSP3に移り、ドラッグに応じて再生位置を変えながらシーケンスを再生し、操作入力処理手順RT1を終了する。
一方、上述のステップSP2において否定結果を得ると、このときCPU101は、ステップSP4に移り、タッチされた指が所定時間内にタッチパネル104Bから離されたか否かを判別する。
このステップSP4において肯定結果を得ると、このことは、シーケンス画像Kpを1本の指でタップする操作が行われたことを意味する。このときCPU101は、ステップSP5に移り、タップされたシーン画像Npに対応するシーンの先頭からシーケンスを再生し、操作入力処理手順RT1を終了する。
一方、上述のステップSP4において否定結果を得ると、このことは、シーケンス画像Kpを1本の指でホールドする操作が行われていることを意味し、このときCPU101は、ステップSP6に移る。
ステップSP6においてCPU101は、ホールドされているシーケンス画像Kpに対応するシーケンスを編集対象として選択し、操作入力処理手順RT1を終了する。
また、上述のステップSP1において否定結果を得ると、このことは、タッチパネル104Bに対して指が2本タッチされていることを意味し、このときCPU101は、ステップSP7に移る。
ステップSP7においてCPU101は、2本の指が同じシーケンス画像Kp内をタッチしているか否かを判別する。
このステップSP7において否定結果を得ると、このことは、1本の指でシーケンス画像Kpをホールドしながら、別の1本の指で別のシーケンス画像Kpをドラッグする操作が行われていることを意味し、このときCPU101は、ステップSP8に移る。
ステップSP8においてCPU101は、ホールドしているシーケンス画像Kpに対応するシーケンスに加え、ドラッグしているシーケンス画像Kpに対応するシーケンスを編集対象として選択し、ドラッグに応じてシーケンス画像Kpの表示位置を移動させる。その後、2つのシーケンス画像Kpの距離が所定値以下になると、CPU101は、これらのシーケンス画像Kpに対応する2つのシーケンスを結合して、操作入力処理手順RT1を終了する。
一方、上述のステップSP7において肯定結果を得ると、このときCPU101は、ステップSP9に移り、2本の指におけるタッチ位置の相対位置が変化しているか否かを判別する。
このステップSP9において否定結果を得ると、このことは、シーケンス画像Kpを2本の指でドラッグする操作が行われていることを意味する。このときCPU101は、ステップSP10に移り、ドラッグに応じてシーケンス画像Kpの表示位置を移動させ、操作入力処理手順RT1を終了する。
一方、ステップSP9において肯定結果を得ると、このことは、1本の指でシーケンス画像Kpをホールドしながら、別の1本の指で当該シーケンス画像Kp内をドラッグする操作が行われていることを意味し、このときCPU101は、ステップSP11に移る。
ステップSP11において、CPU101は、当該ドラッグが当該シーケンス画像Kpの時間軸に対して垂直な方向のドラッグであるか否かを判別する。尚、このときCPU101は、タッチ位置の垂直方向への移動距離が所定値以上に達すると垂直方向のドラッグが行われたと判別する。また、シーケンス画像Kpの時間軸に対して垂直な方向には、厳密に垂直な方向だけでなく、ほぼ垂直とみなされる方向が含まれる。すなわちCPU101は、ほぼ垂直とみなされる範囲内であれば、実質的に垂直であると判別するようになっている。
このステップSP11において否定結果を得ると、このことは、1本の指でシーケンス画像Kpをホールドしながら、別の1本の指で当該シーケンス画像Kp内を時間軸に平行な方向(横方向)にドラッグする操作が行われていることを意味する。このときCPU101は、ステップSP12に移り、2本の指におけるタッチ位置の間隔が近づいているか否かを判別する。
このステップSP12で肯定結果を得ると、このことは、シーケンス画像Kp内にタッチした2本の指の間隔を狭める操作が行われていることを意味し、このときCPU101は、ステップSP13に移る。
ステップSP13においてCPU101は、当該シーケンス画像Kpに対応するシーケンスにおいて、当該操作に応じてシーンの数を減らして、操作入力処理手順RT1を終了する。
一方、ステップSP12で否定結果を得ると、このことは、シーケンス画像Kp内にタッチした2本の指の間隔を広げる操作が行われていることを意味し、このときCPU101は、ステップSP14に移る。
ステップSP14においてCPU101は、当該シーケンス画像Kpに対応するシーケンスにおいて、当該操作に応じてシーンの数を増やして、操作入力処理手順RT1を終了する。
また一方、上述のステップSP11で肯定結果を得ると、このことは、1本の指でシーケンス画像Kpをホールドしながら、別の1本の指でシーケンス画像Kp内を時間軸に対して垂直な方向にドラッグする操作が行われたことを意味する。すなわち、シーケンス画像Kpを1本の指で押さえながら別の1本の指で時間軸に対して垂直に切るジェスチャ操作が行われたことを意味する。このときCPU101は、ステップSP15に移る。
ステップSP15においてCPU101は、ドラッグが行われた位置が、2つのシーン画像Npの境界とシークバーBsの表示位置のうち、2つのシーン画像Npの境界に近いか否かを判別する。
このステップSP15で肯定結果を得ると、このことは、2つのシーン画像Npの境界を切るジェスチャ操作が行われたことを意味し、このときCPU101は、ステップSP16に移る。ステップSP16においてCPU101は、当該2つのシーン画像Npに対応する2つのシーンの境界でシーケンスを分割して、操作入力処理手順RT1を終了する。
一方、ステップSP15で否定結果を得ると、このことは、シークバーBsの表示位置を切るジェスチャ操作が行われたことを意味し、このときCPU101は、ステップSP17に移る。ステップSP17においてCPU101は、シークバーBsの表示位置に対応する時間軸上の位置(すなわちシーク位置)でシーケンスを分割して、操作入力処理手順RT1を終了する。
このような操作入力処理手順RT1にしたがって、CPU101は、シーケンス画像Kpに対するジェスチャ操作に応じて、シーケンスの分割、結合、再生などを行うようになっている。
[2−4.動作及び効果]
以上の構成において、情報端末100では、シーケンス(動画像データ)は任意の時間間隔で区切られ、区切られた各部分の動画像データがシーンとして扱われるようになっている。そして情報端末100のCPU101は、シーケンスごとに、各シーンの内容を表すシーン画像Npを各シーンの時系列に対応した順番で並べてつなげたシーケンス画像Kpを表示させる。
こうすることで、情報端末100は、ユーザに、シーケンス(動画像データ)の内容を時系列に沿って確認させることができる。
ここで、シーケンス画像Kpを1本の指で時間軸に沿ってなぞるジェスチャ操作が行われると、CPU101は、当該ジェスチャ操作によりなぞられている位置(すなわちタッチ位置)に対応する時間軸上の位置で、シーケンスを再生する。
これにより情報端末100は、直感的な操作で、ユーザが所望する再生位置でのシーケンスの再生画像をユーザに確認させることができる。
またCPU101は、シーケンスを再生すると共に、シーケンス画像Kpの時間軸に対して垂直なシークバーBsを、シーケンス画像Kp上の当該シーケンスの再生位置に対応する位置に表示させる。
この状態で、シーケンス画像Kpを1本の指で押さえながら別の1本の指でシークバーBsをなぞるジェスチャ操作が行われると、CPU101は、当該シーケンスの再生位置で、シーケンスを分割する。
これにより、情報端末100は、ユーザに、分割する位置のシーケンスの再生画像を確認させながら、直感的な操作でシーケンスを分割することができる。
また、シーケンス画像Kpを1本の指で押さえながら別の1本の指で2つのシーン画像Npの境界で時間軸に対して垂直に切るジェスチャ操作が行われると、CPU101は、2つのシーン画像Npに対応する2つのシーンの境界の位置で、シーケンスを分割する。
これにより、情報端末100は、ユーザに、シーン画像Npによって分割する位置の前後のシーンの内容を確認させながら、直感的な操作でシーケンスを分割することができる。
以上の構成によれば、情報端末100は、動画像データの内容を時間軸に沿って表す画像(シーケンス画像Kp)を時間軸に対して垂直に切るジェスチャ操作が行われると、ジェスチャ操作により切られた位置に応じた時間軸上の位置で動画像データを分割する。
これにより、情報端末100は、従来と比してより直感的な操作で、動画像データの中からユーザが所望する部分を切り出すことができるので、従来と比して一段と操作性を向上することができる。
<3.他の実施の形態>
[3−1.他の実施の形態1]
尚、上述した実施の形態では、動画像データの内容を時間軸に沿って表す画像(シーケンス画像Kp)に対するジェスチャ操作に応じて、当該動画像データを編集(分割、結合、再生、シーン数の増減など)するようにした。
これに限らず、時間的に連続するデータであれば、この他種々のデータ(例えば、楽曲、写真のスライドショー、録音音声、ガントチャートにおける各作業等の所要期間データなど)を、当該ジェスチャ操作に応じて編集するようにしてもよい。
例えば、楽曲を編集するアプリにおいて、楽曲データの内容を時間軸に沿って表す画像に対するジェスチャ操作に応じて、楽曲データを編集するようにしてもよい。
この場合、CPU101は、楽曲データの内容を時間軸に沿って表す画像として、例えば楽曲データの音声波形を示した画像を、楽曲データごとに画面に表示させる。
そして、当該画像を時間軸に対して垂直に切るジェスチャ操作が行われると、CPU101は、当該ジェスチャ操作により切られた位置に対応する時間軸上の位置で、当該画像に対応する楽曲データを分割する。
また、2つの当該画像をドラッグして近づけるジェスチャ操作が行われると、CPU101は、これらの画像に対応する2つの楽曲データを結合する。
尚、楽曲データをビート単位で区切り、区切られた各部分の楽曲データを示す画像を時系列順に並べた画像を、楽曲データの内容を時間軸に沿って表す画像として表示させるようにしてもよい。また、楽曲データをAメロやBメロ、サビなどといった単位で区切り、区切られた各部分の楽曲データを示す画像を時系列順に並べた画像を、楽曲データの内容を時間軸に沿って表す画像として表示させるようにしてもよい。
また例えば、CPU101は、ガントチャートを作成するアプリにおいて、各作業や資源などの所要期間を表すために当該所要期間に比例した長さの横棒を画面に表示させる。そしてCPU101は、この横棒を時間軸に対して垂直に切るジェスチャ操作に応じて、当該横棒に対応する作業や資源などの所要期間を分割するようにしてもよい。
[3−2.他の実施の形態2]
また、上述した実施の形態では、シーケンス画像Kpを1本の指で押さえながら、別の1本の指で時間軸に対して垂直に切るジェスチャ操作を、シーケンスを分割する操作入力として受け付けるようにした。
これに限らず、CPU101は、シーケンス画像Kpを押さえるジェスチャ操作は行わずに1本の指でシーケンス画像Kpを時間軸に対して垂直に切るのみのジェスチャ操作を、シーケンスを分割する操作入力として受け付けるようにしてもよい。
具体的に、CPU101は、シーケンス画像Kpを1本の指で時間軸に対して垂直にドラッグする操作を、シーケンスを分割する操作入力として受け付ける。また例えば、CPU101は、上述した実施の形態と同様に、シーケンス画像Kpを1本の指で時間軸に平行な方向にドラッグする操作を、シーケンスをシーク再生する操作入力として受け付ける。
この場合、CPU101は、シーケンス画像Kpを1本の指でドラッグする操作が時間軸に対して垂直であるか平行であるかに応じて、シーケンスを分割する操作入力であるかシーク再生する操作入力かを判別することができる。
またこうすることで、ユーザは、シーケンス画像Kpを1本の指で時間軸に平行な方向にドラッグし、シーク再生によって所望の位置を見つけたら、そのままドラッグの方向を時間軸に対して垂直な方向に変えるだけで、当該位置でシーケンスを分割できる。
すなわち、ユーザは、操作入力を、シーケンスをシーク再生する操作入力からシーケンスを分割する操作入力へ容易に切りかえて、シーク再生によって見つけた所望の位置でシーケンスを分割することができる。
またこれに限らず、1本の指でシーケンス画像Kpを時間軸に対して垂直に切るジェスチャ操作が往復して行われると、当該ジェスチャ操作により切られた位置に対応する時間軸上の位置でシーケンスを分割するようにしてもよい。
この場合、CPU101は、1本の指でシーケンス画像Kpを上下に往復してドラッグする操作を、シーケンスを分割する操作入力として受け付ける。そしてCPU101は、ドラッグ操作が往復して行われた位置がシーン境界であればシーン境界でシーケンスを分割し、シークバーBsの表示位置であればシーク位置でシーケンスを分割する。
こうすることで、例えば、ユーザがシーケンス画像Kpを時間軸に平行な方向にドラッグしているときに、意図せずドラッグを時間軸に対して垂直に行ってしまった場合などでも、すぐにシーケンスを分割しないようにできる。すなわち情報端末100は、ユーザが意図しないのにシーケンスを分割してしまうのを防ぐことができる。
さらにこれに限らず、2本の指でそれぞれシーケンス画像Kpを時間軸に対して垂直にドラッグする操作が行われた場合、CPU101は、シーケンスを2箇所において分割するようにしてもよい。
例えば、上述した図7(A)におけるシーン1からシーン5を有するシーケンス1のシーケンス画像Kpに対して、シーン2とシーン3のシーン画像Npの境界と、シーン4とシーン5のシーン画像Npの境界とを同時に上から下になぞる操作が行われたとする。
するとCPU101は、この操作を、2箇所でシーケンスを分割する操作入力として受け付ける。そしてCPU101は、シーン2とシーン3の境界と、シーン4とシーン5との境界でシーケンスを分割する。この結果、シーケンス1は、シーン1とシーン2を有するシーケンス、シーン3とシーン4を有するシーケンス、シーン5を有するシーケンスの新たな3つのシーケンスに分割される。
さらにこれに限らず、CPU101は、シーケンス画像Kpを1本の指でホールドしながら、シーケンス画像Kp外の位置を始点としてシーケンス画像Kpを時間軸に対して垂直にドラッグする操作を、シーケンスを分割する操作入力として受け付けてもよい。
この場合CPU101は、シーケンス画像Kpを1本の指でホールドしながら、シーケンス画像Kp内の位置を始点としてシーケンス画像Kpを時間軸に平行な方向にドラッグする操作を、シーケンス内のシーンの数を変更する操作入力として受け付ける。
こうすることで、CPU101は、ドラッグの方向が時間軸に対して垂直か平行かに加え、ドラッグの始点がシーケンス画像Kp外か否かに応じてもシーケンスを分割する操作入力かシーンの数を変更する操作入力かを判別することができる。
したがって、CPU101は、シーケンスを分割する操作入力かシーンの数を変更する操作入力かをより精度よく判別することができる。
[3−3.他の実施の形態3]
さらに、上述した実施の形態では、シーケンス画像Kpを2本の指でドラッグする操作を、シーケンス画像Kpの表示位置を移動させる操作入力として受け付けるようにした。
これに限らず、CPU101は、シーケンス画像Kpを1本の指でドラッグする操作を、シーケンス画像Kpの表示位置を移動させる操作入力として受け付けるようにしてもよい。
尚、この場合、シーク再生する操作入力には、上述したシーケンス画像Kpを1本の指で時間軸に平行な方向にドラッグする操作ではなく、別の操作が割り当てられるとする。
この場合にも、CPU101は、上述したように、シーケンス画像Kpを1本の指でホールドしながら、別の1本の指でシーケンス画像Kpを時間軸に対して垂直な方向にドラッグする操作を、シーケンスを分割する操作入力として受け付ける。
こうすることで、CPU101は、シーケンス画像Kpが1本の指でホールドされているか否かによって、シーケンス画像Kpの表示位置を移動させる操作入力かシーケンスを分割する操作入力かを判別することができる。
[3−4.他の実施の形態4]
さらに上述した実施の形態では、CPU101は、動画像ファイルを動画像編集アプリにインポートする際に、動画像データを所定時間間隔ごとに区切り、その区切った各動画像をそれぞれ1つのシーンとして設定するようにした。
これに限らず、情報端末100では、この他種々の方法でシーンを設定するようにしてもよい。CPU101は、例えば、撮影開始から撮影終了までの動画像を一つのシーンとして設定するようにしてもよい。また例えば、CPU101は、動画像に対して、ストーリー上つながりのある一場面をシーンとして検出する所定のシーン検出処理を実行し、検出されたシーンを、動画像編集アプリで用いるシーンとして設定するようにしてもよい。尚、このシーン検出処理は、例えば、各フレームの特徴量を抽出し、フレーム間の特徴量の差分をもとに画面が大きく変化した時点を検出して、この時点をシーンの境界として検出する処理など、公知のシーン検出処理を用いることができる。
[3−5.他の実施の形態5]
さらに上述した実施の形態では、CPU101は、編集画面200において、ユーザ操作に応じてシーケンス画像Kpを任意の位置に配置するようにした。
これに限らず、CPU101は、編集画面200に、シーケンスを結合する順番(すなわち最終的にムービーとして生成される順番)で複数のシーケンス画像Kpを一列に表示させるようにしてもよい。
この場合、結合される隣同士のシーケンスのつなぎ目にトランジションを設定するようにしてもよい。
例えば、図18(A)に示すように、シーン86からシーン87を有するシーケンス15のシーケンス画像Kpと、シーン91からシーン93を有するシーケンス16のシーケンス画像Kpが隣同士で編集画面200に表示されているとする。ここでは、最終的にムービーとして生成される際に、シーケンス15とシーケンス16とが結合されることになる。
ここで、シーケンス15のシーケンス画像Kpとシーケンス16のシーケンス画像Kpとの間に、トランジションアイコンTaが1本の指でドラッグされて近づき、これらの間とトランジションアイコンTaとの距離が所定値以下となったとする。
するとCPU101は、シーケンス15とシーケンス16とのつなぎ目に、当該トランジションアイコンTaに対応するトランジション(ここでは、ワイプ)を設定する。これと共に、CPU101は、図18(B)に示すように、シーケンス15のシーケンス画像Kpとシーケンス16のシーケンス画像Kpとの間に、トランジションアイコンTaを挿入する。
[3−6.他の実施の形態6]
さらに上述した実施の形態では、CPU101は、ユーザ操作に応じて、シーケンスにおけるシーンのつなぎ目にトランジションを設定するようにした。
これに限らず、CPU101は、2つのシーンをつなぐデータとしてこの他種々のデータ(例えば静止画像や別のシーケンスなど)をシーンのつなぎ目に挿入するようにしてもよい。
この場合、上述と同様に、CPU101は、2つのシーンをつなぐデータを示すアイコンなどを表示させ、当該アイコンがドラッグされてシーン画像Npの境界に近づき、これらの距離が所定距離以下になると、当該データをシーンのつなぎ目に挿入する。
[3−7.他の実施の形態7]
さらに上述した実施の形態では、動画像をシーン及びシーケンスといった単位を用いて扱い、シーケンスの内容を時間軸に沿って表す画像として、各シーンの先頭フレームの画像(シーン画像Np)を時系列順につなげて並べた画像(シーケンス画像Kp)を表示するようにした。
これに限らず、CPU101は、動画像データの内容を時間軸に沿って表す画像であれば、この他種々の画像を表示させるようにしてもよい。CPU101は、例えば、動画像データから、所定時間間隔ごとのフレームのサムネイル画像を抽出して時系列順につなげて並べた画像を生成して、表示するようにしてもよい。
[3−8.他の実施の形態8]
さらに上述した実施の形態では、シーケンス画像Kpを1本の指でホールドしながら、別の1本の指で時間軸に平行な方向にドラッグする操作を、シーケンスにおけるシーンの数を変更する操作入力として受け付けるようにした。
これに限らず、シーケンス画像Kpにタッチした2本の指を両方ともドラッグして、これら2本の指の間隔を広げたり狭めたりする操作を、シーケンスにおけるシーンの数を変更する操作入力として受け付けるようにしてもよい。
また上述した実施の形態では、シーケンス画像Kpを1本の指でホールドしながら、別の1本の指で別のシーケンス画像Kpをドラッグして、これらの距離を近づける操作を、シーケンスを結合する操作入力として受け付けるようにした。
これに限らず、2本の指でそれぞれ異なるシーケンス画像Kpをドラッグして、これらの距離を近づける操作を、シーケンスを結合する操作入力として受け付けるようにしてもよい。
[3−9.他の実施の形態9]
さらに上述した実施の形態では、CPU101は、シーケンス画像Kpを時間軸に対して垂直に切るジェスチャ操作が行われると、当該ジェスチャ操作により切られた位置に応じて、シーケンスを2つのシーンの境界又はシーク位置で分割するようにした。
これに限らず、CPU101は、シーケンス画像Kpを時間軸に対して垂直に切るジェスチャ操作が行われると、当該ジェスチャ操作により切られた位置に応じた時間軸上の位置であれば、この他種々の位置でシーケンスを分割するようにしてもよい。
例えば、CPU101は、シーケンス画像Kpを時間軸に対して垂直に切るジェスチャ操作が行われると、シーン境界やシーク位置に限らず、当該ジェスチャ操作により切られた位置に対応する時間軸上の位置でシーケンスを分割するようにしてもよい。
また例えば、CPU101は、シークバーBsが表示されているか否かによらず、シーケンス画像Kpを時間軸に対して垂直に切るジェスチャ操作が行われると、当該ジェスチャ操作により切られた位置に最も近いシーン画像Npの境界に対応するシーンの境界でシーケンスを分割するようにしてもよい。
[3−10.他の実施の形態10]
さらに上述した実施の形態では、CPU101は、シーケンス画像Kpを時間軸に沿ってなぞるジェスチャ操作が行われると、シーケンスを再生すると共にシーケンス画像Kp上の再生位置に対応する位置にシークバーBsを表示させるようにした。
これに限らず、CPU101は、シーケンスを再生しているときには、常に、シーケンス画像Kp上の再生位置に対応する位置にシークバーBsを表示させるようにしてもよい。例えば、タップされたシーン画像Npに対応するシーンからシーケンスを再生している際にも、シーケンス画像Kp上の再生位置に対応する位置にシークバーBsを表示させるようにしてもよい
[3−11.他の実施の形態11]
さらに上述した実施の形態では、トランジションアイコンTaをドラッグしてシーケンス画像Kp内のシーン画像Npの境界に近づける操作に応じて、トランジションを設定するようにした。
これに限らず、1本の指でシーケンス画像Kpをホールドしながら、もう1本の指でトランジションアイコンTaを、ホールドしているシーケンス画像Kp内のシーン画像Npの境界に近づける操作に応じて、トランジションを設定するようにしてもよい。
この場合CPU101は、ホールドされているシーケンス画像Kpに対応するシーケンスを編集対象として選択する。そしてCPU101は、編集対象としているシーケンスに対応するシーケンス画像Kp内のシーン画像Npの境界にトランジションアイコンTaが所定距離以上近づいたときに、当該シーケンスにトランジションを設定する。すなわち、このときCPU101は、編集対象として選択しているシーケンスにのみトランジションを設定する。したがって、CPU101は、編集対象として選択しているシーケンス以外のシーケンスに対応するシーケンス画像Kp内のシーン画像Npの境界にトランジションアイコンTaが近づいても、トランジションを設定しないようになっている。
尚、このほか、BGMアイコンBa又はエフェクトアイコンEaについても、同様の操作でBGM又はエフェクトを設定するようにしてもよい。
[3−12.他の実施の形態12]
さらに、上述した実施の形態では、情報処理装置としての情報端末100に、操作部及び表示部としてのタッチスクリーン104と、制御部としてのCPU101を設けるようにした。
本発明はこれに限らず、同様の機能を有するのであれば、上述した情報端末100の各機能部(操作部、表示部、制御部)を、他の種々のハードウェアにより構成するようにしてもよい。
また、例えば、情報端末100に、液晶パネル104Aとタッチパネル104Bとで構成されるタッチスクリーン104の代わりに、タッチパネル機能を有する液晶ディスプレイを設けるなどしてもよい。また、他の実施の形態2のように1本の指のみで操作入力を行えるようにした場合には、マルチタッチに対応していないタッチパネル(すなわちシングルタッチ方式のタッチパネル)を設けるようにしてもよい。また、液晶パネル104Aの代わりに、有機EL(Electro Luminescence)ディスプレイを設けるなどしてもよい。
またタッチパネルに限らず、この他種々の操作デバイスを有する情報処理装置に本発明を適用するようにしてもよく、また適用することができる。
具体的には、マウス、ボタン付きのタッチパッド、ボタン付きのジョイスティック、押込操作が可能なアナログスティック、カメラ等、画面上でのジェスチャ操作が可能な操作デバイスを有する情報処理装置に本発明を適用することができる。
実際、マウスでジェスチャ操作を行う場合、CPU101が、例えば、画面上にマウスの移動に応じて移動するポインタを表示させる。その後、ユーザが、このポインタを所望の位置に移動させてマウスのボタンをクリックすることで、画面上でのジェスチャ操作を開始する。そして、ユーザが、ボタンをクリックしたままマウスを動かしてポインタを移動させることで画面上でのジェスチャ操作を行う。
また、ボタン付きのタッチパッドでドラッグを行う場合、CPU101が、例えば、画面上にタッチパッドに対するタッチ操作に応じて移動するポインタを表示させる。その後、ユーザが、このポインタを所望の位置に移動させ、タッチパッドのボタンを押下することで画面上でのジェスチャ操作を開始する。そして、ユーザが、ボタンを押下したままタッチ位置を動かしてポインタを移動させることで画面上でのジェスチャ操作を行う。
さらに、ジョイスティックでドラッグを行う場合、CPU101が、例えば、画面上にジョイスティックの傾きに応じて移動するポインタを表示させる。その後、ユーザが、このポインタを所望の位置に移動させ、ジョイスティックのボタンを押下することで画面上でのジェスチャ操作を開始する。そして、ユーザが、ボタンを押下したままジョイスティックを傾けてポインタを移動させることで画面上でのジェスチャ操作を行う。
さらに、アナログスティックでドラッグを行う場合、CPU101が、例えば、画面上にアナログスティックの傾きに応じて移動するポインタを表示させる。その後、ユーザが、このポインタを所望の位置に移動させ、アナログスティックを押し込んで画面上でのジェスチャ操作を開始する。そして、ユーザが、アナログスティックを押し込んだままアナログスティックを傾けてポインタを移動させることで画面上でのジェスチャ操作を行う。
さらに、カメラでドラッグを行う場合、CPU101が、例えば、カメラで撮影した画像をもとに指の動きを認識して、画面上にこの指の動きに応じて移動するポインタを表示させる。その後、ユーザが、このポインタを所望の位置に移動させ、所定のジェスチャ(例えば指で円を描くジェスチャ)を行うことで画面上でのジェスチャ操作を開始する。そして、ユーザが、さらに指を移動させてポインタを移動させることで画面上でのジェスチャ操作を行う。
尚、上述した操作は一例であり、要は、画面上で所定の軌跡を描く操作(すなわち画面上でのジェスチャ操作)であればよい。
また、タッチスクリーン104以外のこれらの操作デバイスを有する情報処理装置であれば、操作デバイスと表示デバイスとが別々に設けられていてもよいし、外部の表示デバイスと接続されるようになっていてもよい。
さらに上述した実施の形態では、情報端末100に本発明を適用するようにした。これに限らず、動画像データを扱う機器であれば、デジタルスチルカメラ、パーソナルコンピュータ、テレビジョン受像機、ハードディスクレコーダ、携帯型電話機など、この他種々の機器に適用するようにしてもよく、また適用することができる。
[3−13.他の実施の形態13]
さらに上述した実施の形態では、各種処理を実行するためのプログラムを、情報端末100の不揮発性メモリ102に書き込んでおくようにした。
これに限らず、例えば、情報端末100にメモリカードなどの記憶媒体のスロットを設け、CPU101が、このスロットに差し込まれた記憶媒体からプログラムを読み出して実行するようにしてもよい。またCPU101が、この記憶媒体から読み出したプログラムを、不揮発性メモリ102にインストールするようにしてもよい。さらにCPU101が、このプログラムを、ネットワークインタフェース106を介して、ネットワーク上の機器からダウンロードして、不揮発性メモリ102にインストールするようにしてもよい。
[3−14.他の実施の形態14]
さらに、本発明は、上述した実施の形態と他の実施の形態とに限定されるものではない。すなわち本発明は、上述した実施の形態と他の実施の形態の一部または全部を任意に組み合わせた形態、もしくは一部を抽出した形態にもその適用範囲が及ぶものである。
本発明は、例えば、動画像データなどの時間的に連続するデータを編集する情報処理装置等で広く利用することができる。
1……情報処理装置、2……操作部、3……表示部、4……制御部、100……情報端末、101……CPU、104……タッチスクリーン、104A……液晶パネル、104B……タッチパネル。

Claims (10)

  1. 操作部と、
    時間的に連続するデータの内容を時間軸に沿って表すデータ画像を表示部に表示させる制御部と
    を具え、
    上記制御部は、
    上記操作部を介して上記データ画像上を上記時間軸に平行な方向になぞるジェスチャ操作が行われると、当該ジェスチャ操作によりなぞられている位置に応じた再生位置で上記データを再生し、上記操作部を介して上記データ画像を上記時間軸に対して垂直な方向になぞるジェスチャ操作が行われると、当該ジェスチャ操作によりなぞられた位置に応じた上記時間軸上の位置で上記データを分割し、
    さらに、上記データ画像上を上記時間軸に平行な方向から垂直な方向へとなぞり方向を変えてなぞるジェスチャ操作が行われると、上記時間軸に平行な方向へなぞられている間は、平行になぞられている位置に応じた再生位置で上記データを再生し、その後、なぞり方向が上記時間軸に垂直な方向に変わると、垂直になぞられた位置に応じた上記時間軸上の位置で上記データを分割する
    情報処理装置。
  2. 上記データは、任意の時間間隔で区切られており、
    上記制御部は、
    上記データの区切られた各部分を部分データとして扱い、上記データ画像として、当該部分データごとに当該部分データの内容を表す部分データ画像を当該部分データの時系列に対応した順番で並べた画像を表示部に表示させ、
    上記操作部を介して2つの上記部分データ画像の境界で上記データ画像を上記時間軸に対して垂直な方向になぞるジェスチャ操作が行われると、当該2つの部分データ画像に対応する2つの部分データの境界の位置で上記データを分割する
    請求項1に記載の情報処理装置。
  3. 上記制御部は、
    上記データを再生すると共に、上記データ画像上の上記データの再生位置に対応する位置に上記時間軸に対して垂直なバーを表示させ、
    上記操作部を介して、上記バーをなぞるジェスチャ操作が行われると、上記データの再生位置で上記データを分割する
    請求項1に記載の情報処理装置。
  4. 上記制御部は、
    上記データ画像の時間軸における先頭と異なる上記データ画像の時間軸における末尾とを近づけるジェスチャ操作が行われると、これらの上記データ画像に対応する2つの上記データを結合する
    請求項1に記載の情報処理装置。
  5. 上記制御部は、
    上記データ画像を上記時間軸に沿って伸ばすジェスチャ操作が行われると、上記データを区切る時間間隔を短くすることにより上記データにおける上記部分データの数を増加させる
    請求項2に記載の情報処理装置。
  6. 上記制御部は、
    上記データ画像を上記時間軸に沿って縮めるジェスチャ操作が行われると、上記データを区切る時間間隔を長くすることにより上記データにおける上記部分データの数を減少させる
    請求項2に記載の情報処理装置。
  7. 上記制御部は、
    上記操作部を介して上記データ画像を押さえながら上記時間軸に対して垂直な方向になぞるジェスチャ操作が行われると、当該ジェスチャ操作によりなぞられた位置に応じた上記時間軸上の位置で上記データを分割する
    請求項1に記載の情報処理装置。
  8. 上記制御部は、
    上記操作部を介して上記データ画像を上記時間軸に対して垂直な方向になぞるジェスチャ操作が往復して行われると、当該ジェスチャ操作によりなぞられた位置に応じた上記時間軸上の位置で上記データを分割する
    請求項1に記載の情報処理装置。
  9. 時間的に連続するデータの内容を時間軸に沿って表すデータ画像を表示部に表示させ、
    操作部を介して上記データ画像上を上記時間軸に平行な方向になぞるジェスチャ操作が行われると、当該ジェスチャ操作によりなぞられている位置に応じた再生位置で上記データを再生し、上記操作部を介して上記データ画像を上記時間軸に対して垂直な方向になぞるジェスチャ操作が行われると、当該ジェスチャ操作によりなぞられた位置に応じた上記時間軸上の位置で上記データを分割し、
    さらに、上記データ画像上を上記時間軸に平行な方向から垂直な方向へとなぞり方向を変えてなぞるジェスチャ操作が行われると、上記時間軸に平行な方向へなぞられている間は、平行になぞられている位置に応じた再生位置で上記データを再生し、その後、なぞり方向が上記時間軸に垂直な方向に変わると、垂直になぞられた位置に応じた上記時間軸上の位置で上記データを分割する
    データ分割方法。
  10. 情報処理装置に対し、
    時間的に連続するデータの内容を時間軸に沿って表すデータ画像を表示部に表示させる表示ステップと、
    操作部を介して上記データ画像上を上記時間軸に平行な方向になぞるジェスチャ操作が行われると、当該ジェスチャ操作によりなぞられている位置に応じた再生位置で上記データを再生し、上記操作部を介して上記データ画像を上記時間軸に対して垂直な方向になぞるジェスチャ操作が行われると、当該ジェスチャ操作によりなぞられた位置に応じた上記時間軸上の位置で上記データを分割するジェスチャ操作ステップと
    を実行させ
    さらに、上記ジェスチャ操作ステップで、上記データ画像上を上記時間軸に平行な方向から垂直な方向へとなぞり方向を変えてなぞるジェスチャ操作が行われると、上記時間軸に平行な方向へなぞられている間は、平行になぞられている位置に応じた再生位置で上記データを再生し、その後、なぞり方向が上記時間軸に垂直な方向に変わると、垂直になぞられた位置に応じた上記時間軸上の位置で上記データを分割する
    ようにさせるためのデータ分割プログラム。
JP2010199350A 2010-09-06 2010-09-06 情報処理装置、データ分割方法及びデータ分割プログラム Expired - Fee Related JP5625642B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010199350A JP5625642B2 (ja) 2010-09-06 2010-09-06 情報処理装置、データ分割方法及びデータ分割プログラム
EP11175438A EP2426665A1 (en) 2010-09-06 2011-07-26 Information processing apparatus, data division method, and data division program
US13/198,524 US9153286B2 (en) 2010-09-06 2011-08-04 Information processing apparatus, data division method, and data division program
CN2011102593737A CN102387313A (zh) 2010-09-06 2011-08-30 信息处理设备、数据分割方法和数据分割程序
US14/837,293 US9443342B2 (en) 2010-09-06 2015-08-27 Information processing apparatus, data division method, and data division program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010199350A JP5625642B2 (ja) 2010-09-06 2010-09-06 情報処理装置、データ分割方法及びデータ分割プログラム

Publications (2)

Publication Number Publication Date
JP2012058858A JP2012058858A (ja) 2012-03-22
JP5625642B2 true JP5625642B2 (ja) 2014-11-19

Family

ID=44651047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010199350A Expired - Fee Related JP5625642B2 (ja) 2010-09-06 2010-09-06 情報処理装置、データ分割方法及びデータ分割プログラム

Country Status (4)

Country Link
US (2) US9153286B2 (ja)
EP (1) EP2426665A1 (ja)
JP (1) JP5625642B2 (ja)
CN (1) CN102387313A (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5419292B2 (ja) * 2010-09-16 2014-02-19 Kddi株式会社 時系列データを表示するユーザインタフェースプログラム、システム及び方法
JP5472256B2 (ja) * 2011-05-06 2014-04-16 株式会社デンソー 車両用表示装置および情報表示システム
SG11201401773XA (en) * 2011-10-24 2014-08-28 Omnifone Ltd Method, system and computer program product for navigating digital media content
US9081491B2 (en) * 2012-03-30 2015-07-14 Corel Corporation Controlling and editing media files with touch gestures over a media viewing area using a touch sensitive device
KR20130115694A (ko) * 2012-04-13 2013-10-22 삼성전자주식회사 사용자 데이터를 입력 및 관리할 수 있는 전자 장치 및 방법
KR101976178B1 (ko) * 2012-06-05 2019-05-08 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
JP5502943B2 (ja) 2012-06-29 2014-05-28 楽天株式会社 情報処理装置、認証装置、情報処理方法及び情報処理プログラム
KR101899819B1 (ko) 2012-08-03 2018-09-20 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP6003444B2 (ja) * 2012-09-19 2016-10-05 ブラザー工業株式会社 表示プログラム、及び、情報処理装置
JP5733298B2 (ja) * 2012-12-28 2015-06-10 カシオ計算機株式会社 表示制御装置、表示制御方法及びプログラム
KR20140100784A (ko) * 2013-02-07 2014-08-18 삼성전자주식회사 디스플레이 장치 및 디스플레이 방법
EP2765497B1 (en) 2013-02-08 2019-01-09 Native Instruments GmbH Device and method for controlling playback of digital multimedia data as well as a corresponding computer-readable storage medium and a corresponding computer program
CN105432067A (zh) * 2013-03-08 2016-03-23 汤姆逊许可公司 使用列表驱动选择过程以改善基于视频和媒体时间的编辑的方法和设备
KR102114617B1 (ko) * 2014-01-08 2020-05-25 엘지전자 주식회사 이동단말기 및 그 제어방법
US10733637B1 (en) * 2014-02-10 2020-08-04 Amazon Technologies Inc. Dynamic placement of advertisements for presentation in an electronic device
JP6478502B2 (ja) 2014-07-11 2019-03-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
EP3032538A1 (en) * 2014-12-12 2016-06-15 Thomson Licensing Method and apparatus for rearrangement of media data using visual representations of the same
JP6082896B1 (ja) * 2016-03-21 2017-02-22 Uxent株式会社 画像編集装置、及び画像編集方法
CN107885439B (zh) * 2017-12-01 2020-06-26 维沃移动通信有限公司 一种便签分割方法及移动终端
JP6800453B1 (ja) * 2020-05-07 2020-12-16 株式会社 情報システムエンジニアリング 情報処理装置及び情報処理方法
US11062493B1 (en) * 2020-09-15 2021-07-13 Adobe Inc. Symmetry axis digital content generation system

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5442744A (en) * 1992-04-03 1995-08-15 Sun Microsystems, Inc. Methods and apparatus for displaying and editing multimedia information
EP1944770A3 (en) * 1999-12-16 2008-07-23 Muvee Technologies Pte Ltd. System and method for video production
US7383508B2 (en) * 2002-06-19 2008-06-03 Microsoft Corporation Computer user interface for interacting with video cliplets generated from digital video
JP2005301693A (ja) * 2004-04-12 2005-10-27 Japan Science & Technology Agency 動画編集システム
CN100474391C (zh) * 2004-09-15 2009-04-01 索尼株式会社 图像处理装置和图像处理方法
JP4727342B2 (ja) * 2004-09-15 2011-07-20 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラム及びプログラム格納媒体
US7954065B2 (en) * 2006-12-22 2011-05-31 Apple Inc. Two-dimensional timeline display of media items
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
JP4582427B2 (ja) 2008-04-02 2010-11-17 ソニー株式会社 画像編集装置及びその方法
WO2010071996A1 (en) * 2008-12-23 2010-07-01 Gary Mark Symons Digital media editing interface
JP2010199350A (ja) 2009-02-26 2010-09-09 Nec Tokin Corp 固体電解コンデンサ
US8818172B2 (en) * 2009-04-14 2014-08-26 Avid Technology, Inc. Multi-user remote video editing
US8418082B2 (en) * 2009-05-01 2013-04-09 Apple Inc. Cross-track edit indicators and edit selections
US8612858B2 (en) * 2009-05-01 2013-12-17 Apple Inc. Condensing graphical representations of media clips in a composite display area of a media-editing application
US8656314B2 (en) * 2009-07-30 2014-02-18 Lenovo (Singapore) Pte. Ltd. Finger touch gesture for joining and unjoining discrete touch objects
US8239785B2 (en) * 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US20110185320A1 (en) * 2010-01-28 2011-07-28 Microsoft Corporation Cross-reference Gestures
US9411504B2 (en) * 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US20110185299A1 (en) * 2010-01-28 2011-07-28 Microsoft Corporation Stamp Gestures
US8261213B2 (en) * 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US9519356B2 (en) * 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US20110191704A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Contextual multiplexing gestures
US20110191719A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Cut, Punch-Out, and Rip Gestures

Also Published As

Publication number Publication date
US20150363961A1 (en) 2015-12-17
US20120056828A1 (en) 2012-03-08
EP2426665A1 (en) 2012-03-07
CN102387313A (zh) 2012-03-21
US9153286B2 (en) 2015-10-06
JP2012058858A (ja) 2012-03-22
US9443342B2 (en) 2016-09-13

Similar Documents

Publication Publication Date Title
JP5625642B2 (ja) 情報処理装置、データ分割方法及びデータ分割プログラム
JP5494337B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP5552947B2 (ja) 情報処理装置、表示制御方法及び表示制御プログラム
JP4727342B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム及びプログラム格納媒体
JP2012033058A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2012033059A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP5817400B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP4214487B2 (ja) コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム
JP5361908B2 (ja) 編集装置及び編集方法
US9122388B2 (en) Method and apparatus for controlling touch screen using timeline bar, recording medium with program for the same recorded therein, and user terminal having the same
KR101032634B1 (ko) 미디어 파일 재생 방법 및 장치
TW201040829A (en) Media timeline interaction
JP6226721B2 (ja) 再生制御装置、再生制御方法、プログラム及び記憶媒体
JPH09297750A (ja) ソースファイル編集装置
JP5493490B2 (ja) 表示制御装置、表示制御方法及び表示制御プログラム
JP2009230468A (ja) 再生装置、再生装置の制御方法および制御プログラム
JP6082896B1 (ja) 画像編集装置、及び画像編集方法
JP2009252054A (ja) 表示装置
JP4401740B2 (ja) 編集装置
JP2011003978A (ja) 情報処理装置、表示方法及び表示プログラム
JP2010287273A (ja) 情報再生装置および情報再生方法
JP2010026864A (ja) 情報処理装置、情報表示方法およびコンピュータプログラム
JP5348999B2 (ja) 情報処理装置
JP2006115469A (ja) 画像処理装置、画像処理方法、画像処理プログラム及びプログラム格納媒体
JP2005039845A (ja) 動画像ファイル編集装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140915

LAPS Cancellation because of no payment of annual fees