JP5534858B2 - Display control device and control method of display control device - Google Patents

Display control device and control method of display control device Download PDF

Info

Publication number
JP5534858B2
JP5534858B2 JP2010036398A JP2010036398A JP5534858B2 JP 5534858 B2 JP5534858 B2 JP 5534858B2 JP 2010036398 A JP2010036398 A JP 2010036398A JP 2010036398 A JP2010036398 A JP 2010036398A JP 5534858 B2 JP5534858 B2 JP 5534858B2
Authority
JP
Japan
Prior art keywords
display
touch
moving image
content data
positions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010036398A
Other languages
Japanese (ja)
Other versions
JP2011170785A (en
JP2011170785A5 (en
Inventor
秀信 秋吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010036398A priority Critical patent/JP5534858B2/en
Priority to US13/023,995 priority patent/US8717317B2/en
Publication of JP2011170785A publication Critical patent/JP2011170785A/en
Publication of JP2011170785A5 publication Critical patent/JP2011170785A5/en
Application granted granted Critical
Publication of JP5534858B2 publication Critical patent/JP5534858B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は表示制御装置、表示制御装置の制御方法、プログラム及び記録媒体に関し、特に、タッチパネル等を操作するために用いて好適な技術に関する。 The present invention relates to a display control device, a control method for a display control device , a program, and a recording medium, and more particularly to a technique suitable for use in operating a touch panel or the like.

一般に、パーソナルコンピュータでは、画面に表示されたファイル等のオブジェクトをコピーする場合、対象となるオブジェクトに対してマウスを用いて指示し、コピー及びペーストの操作を行う。また、キーボードを用いた入力とマウスを用いた操作とを併用してコピー及びペーストの操作を行うこともできる。   Generally, in a personal computer, when copying an object such as a file displayed on a screen, a target object is instructed using a mouse, and copy and paste operations are performed. It is also possible to perform copy and paste operations using both input using a keyboard and operations using a mouse.

近年のデジタルビデオカメラでは、記録媒体に記録されている動画の一部を切り出して新しい動画にしたり、動画の1コマを切り出して静止画にしたりする編集機能を搭載しているものもある。1つの動画からある範囲を切り出す場合は、動画を編集する開始点であるIN点と動画を編集する終了点であるOUT点との2つ編集点を動画に対して指示する必要がある。また、動画から静止画を切り出す場合は、動画の所望のシーンに切り出し点を指定する必要がある。   Some recent digital video cameras are equipped with an editing function for cutting out a part of a moving image recorded on a recording medium into a new moving image or cutting out one frame of a moving image into a still image. When a certain range is cut out from one moving image, it is necessary to instruct the moving image to have two editing points, an IN point that is a starting point for editing the moving image and an OUT point that is an ending point for editing the moving image. In addition, when a still image is cut out from a moving image, it is necessary to specify a cutting point for a desired scene of the moving image.

しかしながら、このような手に収まるサイズのデジタルビデオカメラで編集を行うと、一連のボタン操作が煩わしい。そこで、ユーザーに簡単に操作させるために、デジタルビデオカメラにタッチパネルを具備し、タッチパネル上で指の動きを用いて操作するという方法が提案されている。例えば、タッチパネル上での指の動き、及びそのシステムの応答に関する技術が特許文献1に記載されている。特許文献1に記載の技術によれば、タッチパネル上における指と指との間の距離によってシステムの動作を変えることができる。   However, when editing is performed with a digital video camera that fits in such a hand, a series of button operations is troublesome. Therefore, a method has been proposed in which a digital video camera is equipped with a touch panel and is operated using the movement of a finger on the touch panel so that the user can easily perform the operation. For example, Patent Document 1 discloses a technique related to finger movement on a touch panel and a response of the system. According to the technique described in Patent Document 1, the operation of the system can be changed according to the distance between the fingers on the touch panel.

特開2001−228971号公報JP 2001-228971 A

しかしながら、特許文献1には、複数の指でタッチパネルにタッチした場合のシステムの動作について記載されているが、具体的に動画のコピー操作や、静止画の切り出しを想定した技術ではない。このため、タッチパネル上で動画のコピー操作や静止画の切り出しを行うことができず、操作性が不十分であるという問題点がある。   However, Patent Document 1 describes the operation of the system when the touch panel is touched with a plurality of fingers, but is not a technique specifically assuming a moving image copy operation or a still image clipping. For this reason, there is a problem in that it is not possible to perform a moving image copy operation or a still image cut-out on the touch panel, and operability is insufficient.

本発明は前述の問題点に鑑み、タッチパネル上で動画をコピーしたり、静止画を切り出したりする操作を簡単に行うことができるようにすることを目的としている。   The present invention has been made in view of the above-described problems, and an object thereof is to make it possible to easily perform an operation of copying a moving image or cutting out a still image on a touch panel.

本発明の表示制御装置は、コンテンツデータを表す表示オブジェクトを表示部に表示するよう制御する表示制御手段と、前記表示部へのタッチ位置を検出する検出手段と、前記表示部に表示された単一の前記表示オブジェクトにおいて2箇所のタッチ位置を前記検出手段により検出したか否かを判定する判定手段と、前記判定手段により、単一の前記表示オブジェクトに2箇所のタッチ位置を検出したと判定した場合に、タッチしたまま前記タッチ位置が第1の方向に移動して、移動後の2箇所のタッチ位置の間の前記第1の方向の距離が所定距離以上になった場合に、前記表示オブジェクトが表すコンテンツデータを複製して記録媒体に記録するための制御を行い、タッチしたまま前記タッチ位置が第2の方向に移動した場合に、移動後の2箇所のタッチ位置の間の距離に応じた数のフレーム画像を前記表示オブジェクトが表すコンテンツデータから抽出し、前記移動後の2箇所のタッチ位置の間に前記抽出したフレーム画像を表示するように制御する制御手段とを有することを特徴とする。 The display control device of the present invention includes a display control unit that controls to display a display object representing content data on a display unit, a detection unit that detects a touch position on the display unit, and a single unit displayed on the display unit. A determination unit that determines whether or not two touch positions are detected by the detection unit in one display object, and a determination that two touch positions are detected in a single display object by the determination unit when, in the case where the touch position while touching moves in the first direction, the distance of the first direction between the two points touch position after the movement exceeds a predetermined distance, the display There line control for recording the duplicate to a recording medium the content data object represents, when the touch position while touching is moved in the second direction, after movement A number of frame images corresponding to the distance between the touch positions are extracted from the content data represented by the display object, and the extracted frame images are displayed between the two touch positions after the movement. And a control means.

本発明によれば、タッチパネル上での操作により動画の全部または一部をコピーしたり静止画として切り出したりする操作を容易に行うことができる。   ADVANTAGE OF THE INVENTION According to this invention, operation which copies all or a part of a moving image by an operation on a touch panel, or cuts out as a still image can be performed easily.

実施形態に係るデジタルカメラの構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital camera which concerns on embodiment. 実施形態に係るデジタルカメラの外観構成例を示す斜視図である。It is a perspective view which shows the external appearance structural example of the digital camera which concerns on embodiment. 実施形態における動画オブジェクトの表示例を示す図である。It is a figure which shows the example of a display of the moving image object in embodiment. 選択されるフレーム画像と動画との関係を示す図である。It is a figure which shows the relationship between the frame image selected and a moving image. 指を検出する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which detects a finger | toe. 2本の指での操作に関する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence regarding operation with two fingers. 3本の指での操作に関する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence regarding operation with three fingers. 動画オブジェクトをコピーする手順の一例を示す図である。It is a figure which shows an example of the procedure which copies a moving image object. 動画コンテンツの中の指定範囲をコピーする手順の一例を示す図である。It is a figure which shows an example of the procedure which copies the designated range in a moving image content. コピーができない場合の表示の一例を示す図である。It is a figure which shows an example of a display when copying cannot be performed. タイムラインの動画オブジェクトを増やす表示例を示す図である。It is a figure which shows the example of a display which increases the moving image object of a timeline. タイムラインの動画オブジェクトを増やす他の表示例を示す図である。It is a figure which shows the other example of a display which increases the moving image object of a timeline. タイムラインの動画オブジェクトを減らす表示例を示す図である。It is a figure which shows the example of a display which reduces the moving image object of a timeline. 複数の動画オブジェクトを結合する方法の一例を示す図である。It is a figure showing an example of a method of combining a plurality of animation objects. 動画オブジェクトを結合する際の表示効果の一例を示す図である。It is a figure which shows an example of the display effect at the time of combining a moving image object. 動画オブジェクトを結合できない場合の表示例を示す図である。It is a figure which shows the example of a display when a moving image object cannot be combined.

以下、本発明の実施形態について、図面を参照しながら説明する。
図1は、本実施形態に係るデジタルカメラ101の構成例を示すブロック図である。
図1において、デジタルカメラ101は、動画及び静止画を撮影して再生することができるものである。タッチパネル部102は、LEDなどの表示部103とユーザーのタッチ操作を入力信号に変換する操作部104とを備えている。表示部103は、デジタルカメラ101で撮影された動画を表示したりユーザーに対しての指示ボタンを表示したりする。また、デジタルカメラ101に関する情報や、記録媒体120の残容量なども表示する。操作部104は、表示部103に表示されたボタン等から、ユーザーの指示を受け付けるものである。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration example of a digital camera 101 according to the present embodiment.
In FIG. 1, a digital camera 101 can shoot and reproduce moving images and still images. The touch panel unit 102 includes a display unit 103 such as an LED and an operation unit 104 that converts a user's touch operation into an input signal. The display unit 103 displays a moving image shot by the digital camera 101 or displays an instruction button for the user. Also, information regarding the digital camera 101, the remaining capacity of the recording medium 120, and the like are displayed. The operation unit 104 receives a user instruction from a button or the like displayed on the display unit 103.

映像入力部105は、デジタルカメラ101で撮影するときに被写体を撮像して映像信号を入力するものである。フレーム画像抽出部106は、記録媒体120に記録された動画から、ユーザー等により指示された時間の位置におけるフレーム画像を生成するものである。合成部107は表示制御手段として機能し、タッチパネル部102の表示部103に表示する文字情報や、画像、フレーム画像抽出部106で生成したフレーム画像等を合成して表示部103に表示するものである。復号部108は、記録媒体120に記録された動画データや静止画データを復号するものである。符号部109は、動画を記録する際に、映像入力部105から入力された映像信号を符号化するものである。   The video input unit 105 captures a subject and inputs a video signal when shooting with the digital camera 101. The frame image extraction unit 106 generates a frame image at a time position designated by a user or the like from a moving image recorded on the recording medium 120. The synthesizing unit 107 functions as a display control unit, and synthesizes character information displayed on the display unit 103 of the touch panel unit 102, an image, a frame image generated by the frame image extracting unit 106, and the like, and displays them on the display unit 103. is there. The decoding unit 108 decodes moving image data and still image data recorded on the recording medium 120. The encoding unit 109 encodes the video signal input from the video input unit 105 when recording a moving image.

グラフィック部110は、デジタルカメラ101の様々な情報を表示部103に表示するための画像を生成するものである。例えば、時計、電池残量、記録媒体残量、記録された動画数などの情報をグラフィックにした画像を生成する。記録媒体アクセス部111は、動画を記録する時には記録媒体120へ動画データを記録し、動画を再生する時には記録媒体120から動画データを再生するインターフェイスである。データベース部112は、記録媒体120に記録されている動画データに関係した情報を保持するものである。   The graphic unit 110 generates an image for displaying various information of the digital camera 101 on the display unit 103. For example, an image in which information such as a clock, a remaining battery capacity, a remaining recording medium capacity, and the number of recorded moving images is graphically generated is generated. The recording medium access unit 111 is an interface for recording moving image data on the recording medium 120 when recording a moving image, and reproducing moving image data from the recording medium 120 when reproducing the moving image. The database unit 112 holds information related to moving image data recorded on the recording medium 120.

タッチ状態検出部113は、タッチパネル部102上にユーザーの指が何本触れているか、どこに触れているか等を検出するものである。全体制御部114は、デジタルカメラ基本部115の各ブロックと接続されており、記録や再生時の動作に応じて適切に制御する。なお、後述するフローチャートの処理は、ROM122に記録されたプログラムをRAM123に展開してCPU121が実行し、デジタルカメラ101の各部を制御することにより行われる。また、記録媒体120は、脱着式の記録媒体である。   The touch state detection unit 113 detects how many fingers of the user are touching the touch panel unit 102, where they are touching, and the like. The overall control unit 114 is connected to each block of the digital camera basic unit 115 and appropriately controls according to operations during recording and reproduction. Note that the processing of the flowchart described below is performed by developing a program recorded in the ROM 122 on the RAM 123 and executing it by the CPU 121 to control each unit of the digital camera 101. The recording medium 120 is a detachable recording medium.

図2は、本実施形態に係るデジタルカメラ101の外観構成例を示す斜視図である。なお、図2(a)及び図2(b)は、1つのデジタルカメラを互いに異なる角度から見た外観を示している。
図2において、デジタルカメラ101の筐体201には、記録媒体120の挿入口202が設けられており、この挿入口202から記録媒体120が挿入される。電源ボタン203は、デジタルカメラ101の主電源をオンにしたり、オフにしたりするためのボタンである。レンズ204は、デジタルカメラ101の鏡筒部分である。タッチパネル205は、表示部と操作部とを兼ねており、記録・再生の指示、編集の指示等すべての操作がこのタッチパネル205で行われる。
FIG. 2 is a perspective view showing an external configuration example of the digital camera 101 according to the present embodiment. 2A and 2B show the appearance of one digital camera viewed from different angles.
In FIG. 2, the housing 201 of the digital camera 101 is provided with an insertion port 202 for the recording medium 120, and the recording medium 120 is inserted through the insertion port 202. The power button 203 is a button for turning on or off the main power of the digital camera 101. The lens 204 is a lens barrel portion of the digital camera 101. The touch panel 205 serves as both a display unit and an operation unit, and all operations such as recording / playback instructions and editing instructions are performed on the touch panel 205.

図3は、本実施形態における表示オブジェクトとして動画オブジェクトの表示例を示す図である。ここで、動画オブジェクトとは、1つのインデックスに表示されるフレーム画像の集合のことである。
図3において、タッチパネル205の表示画面310には、動画オブジェクトや静止画オブジェクトがインデックスに表示される。図3の表示例では、インデックスを左右に広がりをもつ表示空間に配置し、一部を切り出して表示画面310に表示しており、左方向は古いオブジェクトを表示し、右方向は新しいオブジェクトを表示している。
FIG. 3 is a diagram illustrating a display example of a moving image object as a display object in the present embodiment. Here, the moving image object is a set of frame images displayed in one index.
In FIG. 3, on the display screen 310 of the touch panel 205, a moving image object or a still image object is displayed in an index. In the display example of FIG. 3, the index is arranged in a display space having a wide left and right, a part is cut out and displayed on the display screen 310, an old object is displayed on the left, and a new object is displayed on the right. doing.

全体バー311は、この表示空間の全体をバーとして表すものである。エリアバー312は、表示空間のうち実際に表示画面310に表示されているエリアを表すバーである。インデックス313は例えば動画オブジェクトのインデックスを表しており、動画オブジェクトとしてフレーム画像を複数表示することができる。また、そのフレーム画像を黒いフレームで囲むように表示している。さらに、各フレーム画像の右下には、動画オブジェクトの先頭からの時間位置を付加して表示している。   The entire bar 311 represents the entire display space as a bar. The area bar 312 is a bar that represents an area that is actually displayed on the display screen 310 in the display space. An index 313 represents, for example, an index of a moving image object, and a plurality of frame images can be displayed as the moving image object. The frame image is displayed so as to be surrounded by a black frame. Further, the time position from the beginning of the moving image object is added and displayed at the lower right of each frame image.

図3に示す動画のインデックスの例は、15秒程度のオブジェクトであり、0秒目のフレーム画像と、15秒目のフレーム画像との2つでこの動画オブジェクトのインデックス313を構成している。静止画オブジェクト314は、フレーム画像とは区別するために黒いフレームを付さずに表示される。この黒いフレームの有無によりユーザーは静止画オブジェクトか動画オブジェクトかを判別することができる。なお、本実施形態では動画オブジェクトのタイムライン表示について詳細に説明するため、静止画の表示方法については割愛する。また、表示315は現在表示されるインデックスの撮影時間の概要を表しており、バー316は日付の開始を表すものである。   The example of the moving image index shown in FIG. 3 is an object of about 15 seconds, and the moving image object index 313 is composed of a frame image of 0 second and a frame image of 15 second. The still image object 314 is displayed without a black frame in order to distinguish it from the frame image. The user can determine whether the object is a still image object or a moving image object based on the presence or absence of the black frame. In the present embodiment, since the timeline display of the moving image object will be described in detail, the display method of the still image is omitted. A display 315 represents an overview of the shooting time of the currently displayed index, and a bar 316 represents the start of the date.

次に、フレーム画像の抽出方法に関して図4を参照しながら説明する。図4は、選択されるフレーム画像と動画との関係を示す図である。
図4(a)に示す例は、再生時間が60秒の動画である。この場合において、タッチパネル205上の指の操作により、動画のインデックスについてフレーム画像を3枚用いて表すことになった場合、60秒の動画から、時間間隔が同じになるように0、30、60秒目のフレーム画像を抽出する。
Next, a frame image extraction method will be described with reference to FIG. FIG. 4 is a diagram illustrating a relationship between a selected frame image and a moving image.
The example shown in FIG. 4A is a moving image having a playback time of 60 seconds. In this case, when an operation of a finger on the touch panel 205 indicates that the frame index is represented using three frame images, 0, 30, 60 so that the time interval is the same from the 60-second moving image. Extract the second frame image.

また、図4(b)に示す例は、再生時間が240秒の動画である。フレーム画像を3枚用いて表す場合は図4(a)に示す例と同様に、0、120、240秒目のフレーム画像を抽出する。このように、動画の再生時間が異なる場合は、動画の全体をフレーム画像の表示枚数に応じて均等に割ることにより、抽出するフレーム画像の位置を決定する。   Also, the example shown in FIG. 4B is a moving image with a playback time of 240 seconds. When using three frame images, the frame images at 0, 120, and 240 seconds are extracted as in the example shown in FIG. As described above, when the playback time of the moving image is different, the position of the frame image to be extracted is determined by equally dividing the entire moving image according to the number of displayed frame images.

また、図4(c)に示す例は、再生時間が2秒の動画である。この場合も、0、1、2秒目のフレーム画像を抽出する。0秒目は動画の開始点であり、1秒目は動画の開始点から1秒後の点である。そして、2秒目は動画の開始点から2秒後の点であり、動画の最終画像となる。本実施形態では、フレーム画像の間隔を最小で1秒としており、最大3枚のフレーム画像を表示することができる。   Further, the example shown in FIG. 4C is a moving image having a reproduction time of 2 seconds. Also in this case, frame images at 0, 1, and 2 seconds are extracted. The 0th second is the starting point of the moving image, and the first second is a point one second after the starting point of the moving image. The second second is a point two seconds after the starting point of the moving image, and becomes the final image of the moving image. In the present embodiment, the interval between frame images is set to a minimum of one second, and a maximum of three frame images can be displayed.

次に、タッチパネル205上での指の動きと、システムのシーケンスとの関係について図5〜図7のフローチャートを参照しながら説明する。なお、図5〜図7に示すフローチャートの処理は、ROM122に記録されたプログラムをCPU121がRAM123に展開して実行することにより実現する。   Next, the relationship between the finger movement on the touch panel 205 and the system sequence will be described with reference to the flowcharts of FIGS. 5 to 7 is realized by the CPU 121 developing the program recorded in the ROM 122 on the RAM 123 and executing the program.

図5は、本実施形態において、指を検出する処理手順の一例を示すフローチャートである。
まず、図5のステップS501において指の検出処理を開始する。そして、ステップS502において、タッチ状態検出部113は、1本目の指のタッチを検出したか否かを判定する。なお、本実施形態においては、タッチパネル205上の1点へのタッチを、1本目の指のタッチと称す。また、実際には指であるか否かに関わらず、タッチパネル205上で同時に1箇所(1点)においてなんらかの接触(タッチ)を検出した場合は、ステップS502の判定結果をYesとする。
FIG. 5 is a flowchart illustrating an example of a processing procedure for detecting a finger in the present embodiment.
First, finger detection processing is started in step S501 in FIG. In step S502, the touch state detection unit 113 determines whether or not a first finger touch is detected. In the present embodiment, a touch on one point on the touch panel 205 is referred to as a first finger touch. If any contact (touch) is simultaneously detected at one place (one point) on the touch panel 205 regardless of whether or not it is actually a finger, the determination result in step S502 is set to Yes.

ステップS502の判定の結果、1本目の指のタッチを検出していない場合は、ステップS503へ進む。そして、ステップS503において、全体制御部114は、一連の指の検出動作を終了するか否かを判定する。ここで、一連の指の検出動作を終了する場合とは、デジタルカメラ101の電源がオフにされる場合や、撮影モードなど他のモードへ遷移するよう指示がなされた場合などがある。この判定の結果、一連の指の検出動作を終了する場合はステップS512へ進み、そのまま処理を終了する。一方、ステップS503の判定の結果、処理を継続する場合は、ステップS502へ戻る。   As a result of the determination in step S502, if the first finger touch is not detected, the process proceeds to step S503. In step S503, the overall control unit 114 determines whether to end a series of finger detection operations. Here, a case where a series of finger detection operations is terminated includes a case where the power of the digital camera 101 is turned off, or a case where an instruction is given to shift to another mode such as a shooting mode. As a result of this determination, if the series of finger detection operations is to be terminated, the process proceeds to step S512, and the process is terminated as it is. On the other hand, if the result of determination in step S503 is to continue processing, processing returns to step S502.

一方、ステップS502の判定の結果、1本目の指のタッチを検出した場合は、ステップS503へ進む。そして、ステップS504において、全体制御部114の制御により1本の指に関する処理を行う。ここで、1本の指に関する処理とは、例えば指で指示したオブジェクトを画面上で選択するなどの動作である。次に、ステップS505において、タッチ状態検出部113は、1本目の指のタッチが継続したまま、2本目の指のタッチを検出したか否かを判定する。この場合も2本目の指のタッチと称しているが、実際には指であるか否かに関わらず、タッチパネル205上で同時に2箇所(2点)においてなんらかの接触(タッチ)を検出した場合に、ステップS505の判定結果をYesとする。   On the other hand, if the first finger touch is detected as a result of the determination in step S502, the process proceeds to step S503. In step S504, processing related to one finger is performed under the control of the overall control unit 114. Here, the process related to one finger is an operation such as selecting an object indicated by the finger on the screen. Next, in step S505, the touch state detection unit 113 determines whether the touch of the second finger is detected while the touch of the first finger is continued. This case is also referred to as the second finger touch, but when any contact (touch) is detected at two locations (two points) on the touch panel 205 at the same time, regardless of whether or not it is actually a finger. The determination result in step S505 is set to Yes.

ステップS505の判定の結果、2本目の指を検出しなかった場合は、ステップS506へ進む。そして、ステップS506において、タッチ状態検出部113は、全ての指がタッチパネル205から離れたか否かを判定する。この判定の結果、全ての指がタッチパネル205から離れた場合はステップS503へ進み、タッチパネル205から離れていない指が存在する場合は、ステップS504へ戻る。   As a result of the determination in step S505, if the second finger is not detected, the process proceeds to step S506. In step S <b> 506, the touch state detection unit 113 determines whether all fingers have been removed from the touch panel 205. As a result of the determination, if all the fingers are separated from the touch panel 205, the process proceeds to step S503. If there is a finger that is not separated from the touch panel 205, the process returns to step S504.

一方、ステップS505の判定の結果、2本目の指を検出した場合は、ステップS507へ進む。そして、ステップS507において、2本の指での操作に関する処理を行う。この2本の指での操作に関する処理については図6の説明で後述する。次に、ステップS508において、タッチ状態検出部113は、1本目及び2本目の指のタッチが継続したまま、3本目の指を検出したか否かを判定する。この場合も3本目の指のタッチと称しているが、実際には指であるか否かに関わらず、タッチパネル205上で同時に3箇所(3点)においてなんらかの接触(タッチ)を検出した場合に、ステップS508の判定結果をYesとする。   On the other hand, if the second finger is detected as a result of the determination in step S505, the process proceeds to step S507. In step S507, processing related to an operation with two fingers is performed. The process related to the operation with the two fingers will be described later with reference to FIG. Next, in step S508, the touch state detection unit 113 determines whether the third finger has been detected while the first and second fingers are continuously touched. This case is also referred to as the third finger touch, but when any contact (touch) is detected at three points (three points) on the touch panel 205 at the same time, regardless of whether or not it is actually a finger. The determination result in step S508 is Yes.

ステップS508の判定の結果、3本目の指を検出しなかった場合はステップS509へ進む。そして、ステップS509において、タッチ状態検出部113は、検出した指の本数を特定し、2本から1本に減っているか否かを判定する。この判定の結果、1本に減っている場合はステップS506へ進み、指の本数が減っていない場合はステップS507へ戻る。   As a result of the determination in step S508, if the third finger is not detected, the process proceeds to step S509. In step S509, the touch state detection unit 113 identifies the number of detected fingers and determines whether the number is reduced from two to one. As a result of this determination, if the number is reduced to one, the process proceeds to step S506, and if the number of fingers is not decreased, the process returns to step S507.

一方、ステップS508の判定の結果、3本目の指を検出した場合はステップS510へ進む。そして、ステップS510において、3本の指に関する処理を行う。この3本の指に関する処理については、図7の説明で後述する。次に、ステップS511において、タッチ状態検出部113は、検出した指の本数を特定し、3本から2本に減ったか否かを判定する。この判定の結果、2本に減った場合はステップS509へ進み、指の本数が減っていない場合はステップS510に戻る。以上のように本実施形態においては、検出された指の本数により処理を変更しながら動作する。   On the other hand, as a result of the determination in step S508, if the third finger is detected, the process proceeds to step S510. In step S510, a process related to three fingers is performed. The process related to these three fingers will be described later with reference to FIG. Next, in step S511, the touch state detection unit 113 identifies the number of detected fingers, and determines whether or not the number is decreased from three to two. As a result of this determination, if the number is reduced to two, the process proceeds to step S509, and if the number of fingers is not decreased, the process returns to step S510. As described above, in the present embodiment, the operation is performed while changing the process according to the number of detected fingers.

図6は、図5のステップS507における2本の指での操作に関する詳細な処理手順の一例を示すフローチャートである。
まず、ステップS601において、タッチ状態検出部113は第1の判定手段として機能し、検出している2本の指のタッチが、同一の動画オブジェクトをタッチしているものであるか否かを判定する。この処理では、動画オブジェクトが複数のフレーム画像から構成されている場合は、2本の指がこれらのフレーム画像の何れかにタッチしているか否かを判定する。この判定の結果、同一の動画オブジェクトをタッチしている場合はステップS602へ進み、同一の動画オブジェクトをタッチしていない場合はステップS611へ進む。
FIG. 6 is a flowchart showing an example of a detailed processing procedure regarding the operation with two fingers in step S507 of FIG.
First, in step S601, the touch state detection unit 113 functions as a first determination unit, and determines whether the detected two-finger touches are touching the same moving image object. To do. In this process, when the moving image object is composed of a plurality of frame images, it is determined whether or not two fingers are touching any of these frame images. If the same moving image object is touched as a result of the determination, the process proceeds to step S602. If the same moving image object is not touched, the process proceeds to step S611.

ステップS602においては、タッチ状態検出部113は、検出している2本の指のタッチが解除されることなく、タッチ位置の移動があったか否かを判定する。この判定の結果、タッチ位置の移動があった場合はステップS603へ進み、タッチ位置の移動がなかった場合は処理を終了して図6の処理を抜け、図5のステップS508へ進む。   In step S602, the touch state detection unit 113 determines whether or not the touch position has been moved without releasing the detected touch of the two fingers. As a result of the determination, if the touch position has been moved, the process proceeds to step S603. If the touch position has not been moved, the process is terminated, the process of FIG. 6 is terminated, and the process proceeds to step S508 of FIG.

ステップS603においては、ステップS602で判定した移動によって、2本の指のタッチ位置が縦方向に離れたか否かを判定する。ここで、タッチパネル205の横方向は表示画面上の左右方向(動画オブジェクトのタイムラインにおいてフレーム画像が並ぶ方向)であり、縦方向は表示画面上の上下方向(タイムラインのフレーム画像が並べられる方向と垂直な方向)であるものとする。この処理は、タッチ状態検出部113による検出に基づいて全体制御部114のCPU121が、縦方向をy軸、横方向をx軸として判定する。すなわち、ステップS603では、2本の指によるタッチ位置が移動によってy方向に離れたか否かを判定し、y方向に所定の閾値分(この閾値は閾値Aと称する)の距離だけ離れると、タッチ位置が移動によってy方向に離れたと判定する。この判定の結果、y方向に離れた場合はステップS604へ進み、y方向に離れていない場合はステップS607へ進む。   In step S603, it is determined whether or not the touch positions of the two fingers are separated in the vertical direction by the movement determined in step S602. Here, the horizontal direction of the touch panel 205 is the left-right direction on the display screen (the direction in which frame images are arranged on the timeline of the moving image object), and the vertical direction is the up-down direction on the display screen (the direction in which frame images on the timeline are arranged). In a direction perpendicular to In this process, based on detection by the touch state detection unit 113, the CPU 121 of the overall control unit 114 determines that the vertical direction is the y axis and the horizontal direction is the x axis. That is, in step S603, it is determined whether or not the touch position of the two fingers has moved away in the y direction due to the movement, and if the touch position is separated by a predetermined threshold (this threshold is referred to as threshold A) in the y direction, It is determined that the position has moved away in the y direction due to the movement. If the result of this determination is that there is a separation in the y direction, the process proceeds to step S604, and if there is no separation in the y direction, the process proceeds to step S607.

ステップS604においては、全体制御部114の制御により合成部107は、2本の指でタッチしていた単一の動画オブジェクトを2つに増やし、2本の指のタッチ位置に追従した位置へそれぞれの動画オブジェクトを配置してタッチパネル205に表示する。ここで、2本の指のタッチ位置の距離がある程度短い場合は、2つの動画オブジェクトを重畳して表示するものとする。この際の表示例を図8に示しており、図8の詳細については後述する。   In step S604, under the control of the overall control unit 114, the synthesizing unit 107 increases the single moving image object that has been touched with two fingers to two, and moves to a position that follows the touch position of the two fingers. Are displayed on the touch panel 205. Here, when the distance between the touch positions of two fingers is short to some extent, two moving image objects are superimposed and displayed. A display example at this time is shown in FIG. 8, and details of FIG. 8 will be described later.

次に、ステップS605において、タッチ状態検出部113による検出に基づいて全体制御部114は第2の判定手段として機能し、2本の指によりタッチされている移動後の2つの位置の縦方向の距離が、閾値B以上(所定値以上)となったか否かを判定する。この判定の結果、閾値B以上となった場合はステップS606へ進み、閾値B未満である場合は処理を終了し、図5のステップS508へ進む。   Next, in step S605, the overall control unit 114 functions as a second determination unit based on the detection by the touch state detection unit 113, and the vertical positions of the two positions after being touched by two fingers are moved. It is determined whether or not the distance is equal to or greater than a threshold value B (a predetermined value or greater). As a result of the determination, if the threshold value B is equal to or greater than the threshold value B, the process proceeds to step S606, and if it is less than the threshold value B, the process ends, and the process proceeds to step S508 in FIG.

ステップS606においては、2本の指でタッチしている動画オブジェクトが示す実際の動画データをコピーする。すなわち、記録媒体アクセス部111は、ステップS601でタッチしていた動画オブジェクトが示す動画データを複製して記録媒体120に記録する。この際、複製される動画データは、複製前の動画の全範囲とする。このように、同一の動画オブジェクトを2本の指でタッチし、タッチした2本の指を縦方向に広げる操作をするだけで、ユーザーがタッチした動画オブジェクトが示す動画データを簡単にコピーすることができる。そして、ステップS606の処理を終えると処理を終了し、図5のステップS508へ進む。   In step S606, the actual moving image data indicated by the moving image object touched with two fingers is copied. That is, the recording medium access unit 111 duplicates and records the moving image data indicated by the moving image object touched in step S601 on the recording medium 120. At this time, the moving image data to be copied is the entire range of the moving image before copying. In this way, by simply touching the same moving image object with two fingers and spreading the two touched fingers vertically, the moving image data indicated by the moving image object touched by the user can be easily copied. Can do. Then, when the process of step S606 ends, the process ends, and the process proceeds to step S508 in FIG.

一方、ステップS607においては、タッチ状態検出部113による検出に基づいて全体制御部114は、ステップS602で判定した移動によって、2本の指のタッチ位置が横方向(x方向)に移動前より広がったか否かを判定する。このとき、x方向に所定の閾値分(この閾値は閾値Cと称する)の距離だけ離れると、タッチ位置が移動によってx方向に広がったと判定する。この判定の結果、横方向に広がった場合はステップS608へ進み、横方向に広がっていない場合はステップS609へ進む。   On the other hand, in step S607, based on the detection by the touch state detection unit 113, the overall control unit 114 expands the touch position of the two fingers in the horizontal direction (x direction) before the movement by the movement determined in step S602. It is determined whether or not. At this time, it is determined that the touch position has spread in the x direction due to the movement when the distance is a predetermined threshold (this threshold is referred to as threshold C) in the x direction. If the result of this determination is that it has spread in the horizontal direction, processing proceeds to step S608, and if it has not spread in the horizontal direction, processing proceeds to step S609.

ステップS608においては、全体制御部114の制御により2本の指の間の横方向の距離に応じて、タイムラインに表示すべきフレーム画像の枚数を決定する。そして、フレーム画像抽出部106により、決定した枚数のフレーム画像を、タッチしている動画オブジェクトが示す動画データから抽出し、合成部107により、x方向に並べてタッチパネル205に表示する。このとき、動画オブジェトのタイムラインに2つ以上のフレーム画像が表示され、2本の指でタッチされたフレーム画像が異なる場合には、タッチされている2つのフレーム画像の間にあるフレーム画像が表示されるものとする。また、動画オブジェクトのタイムラインに1つのフレーム画像しか表示されていなかった場合は、動画オブジェクトが示す動画データの最初のフレームと最終フレームとの間のフレーム画像が抽出されるものとする。すなわち、同一の動画オブジェクトを2本の指でタッチし、タッチした2本の指を左右に広げる操作をするだけで、ユーザーが所望とする動画の所望とする範囲のタイムライン表示を、より詳細なものへと切り替えることができる。この際の表示例を図11に示しており、図11の詳細については後述する。そして、ステップS608の処理を終えると処理を終了し、図5のステップS508へ進む。   In step S608, the number of frame images to be displayed on the timeline is determined according to the lateral distance between the two fingers under the control of the overall control unit 114. Then, the frame image extraction unit 106 extracts the determined number of frame images from the moving image data indicated by the moving image object that is touched, and the combining unit 107 displays them on the touch panel 205 in the x direction. At this time, when two or more frame images are displayed on the timeline of the moving image object and the frame images touched by two fingers are different, a frame image between the two touched frame images is displayed. It shall be displayed. In addition, when only one frame image is displayed on the timeline of the moving image object, a frame image between the first frame and the last frame of the moving image data indicated by the moving image object is extracted. That is, the user can touch the same moving image object with two fingers and spread the two touched fingers to the left and right to display the timeline display of the desired range of the moving image desired by the user in more detail. You can switch to something. A display example at this time is shown in FIG. 11, and details of FIG. 11 will be described later. Then, when the process of step S608 ends, the process ends, and the process proceeds to step S508 of FIG.

一方、ステップS609においては、タッチ状態検出部113による検出に基づいて全体制御部114は、ステップS602で判定した移動によって、2本の指のタッチ位置が横方向(x方向)に移動前より狭まったか否かを判定する。この判定の結果、横方向に狭まった場合はステップS610へ進み、横方向に狭まっていない場合は処理を終了し、図5のステップS508へ進む。   On the other hand, in step S609, based on the detection by the touch state detection unit 113, the overall control unit 114 narrows the touch position of the two fingers in the horizontal direction (x direction) from before the movement by the movement determined in step S602. It is determined whether or not. If the result of this determination is that it has narrowed in the horizontal direction, processing proceeds to step S610, and if it has not narrowed in the horizontal direction, processing is terminated, and processing proceeds to step S508 in FIG.

ステップS610においては、全体制御部114の制御により2本の指の間の横方向の距離に応じて、タイムラインに表示すべきフレーム画像の枚数を減少させ、合成部107によりタッチしている動画オブジェクトの横方向の表示領域を狭める。より詳細には、2本の指の間の横方向の距離に応じて、タイムラインに表示すべきフレーム画像の枚数を決定し、決定した枚数のフレーム画像を、タッチしている動画オブジェクトが示す動画データから抽出し、x方向に並べて表示する。このとき、2本の指の間の横方向の距離が狭まっているので、結果的に抽出されるフレーム画像の枚数が狭まる前に比べて減少する。   In step S610, the number of frame images to be displayed on the timeline is reduced according to the lateral distance between the two fingers under the control of the overall control unit 114, and the moving image touched by the combining unit 107 Narrow the horizontal display area of the object. More specifically, the number of frame images to be displayed on the timeline is determined according to the lateral distance between two fingers, and the moving image object touched indicates the determined number of frame images. Extract from video data and display side by side in the x direction. At this time, since the distance in the horizontal direction between the two fingers is narrowed, the number of frame images extracted as a result is reduced compared to before the number of frame images is narrowed.

ここで、タッチしている2本の指の距離を狭める前に、タッチしている動画オブジェクトのタイムラインに3つ以上のフレーム画像が表示されており、2本の指でタッチされたフレーム画像が異なっている場合がある。この場合は、2本の指の横方向の距離を狭めるのに伴って、タッチされた2つのフレーム画像の間にあるフレーム画像のみが減少するものとする。これにより、同一の動画オブジェクトを2本の指でタッチし、タッチした2本の指を左右に狭める操作をするだけで、ユーザーが所望とする動画の所望とする範囲のタイムライン表示をより簡易なものへと切り替え、表示領域を狭めることができる。この際の表示例を図13に示す。図13の詳細については後述する。ステップS610の処理を終えると処理を終了し、図5のステップS508へ進む。   Here, before the distance between two touching fingers is reduced, three or more frame images are displayed on the timeline of the touching moving image object, and the frame image touched with two fingers. May be different. In this case, it is assumed that only the frame image between the two touched frame images decreases as the distance between the two fingers in the lateral direction is reduced. This makes it easier to display the timeline of the desired range of the desired video by simply touching the same video object with two fingers and narrowing the two touched fingers to the left and right. The display area can be narrowed by switching to a new one. A display example at this time is shown in FIG. Details of FIG. 13 will be described later. When the process in step S610 is completed, the process ends, and the process proceeds to step S508 in FIG.

一方、ステップS611においては、タッチ状態検出部113は、検出している2本の指が、それぞれ異なる動画オブジェクトをタッチしているものであるか否かを判定する。この判定の結果、異なる動画オブジェクトをタッチしている場合はステップS612へ進み、異なる動画オブジェクトをタッチしていない場合は処理を終了し、図5のステップS508へ進む。   On the other hand, in step S611, the touch state detection unit 113 determines whether the two detected fingers are touching different moving image objects. As a result of the determination, if a different moving image object is touched, the process proceeds to step S612. If a different moving image object is not touched, the process ends, and the process proceeds to step S508 in FIG.

ステップS612においては、タッチ状態検出部113は、検出している2本の指のタッチが解除されることなく、タッチ位置の移動があったか否かを判定する。この判定の結果、タッチ位置の移動があった場合はステップS613へ進み、タッチ位置の移動が無かった場合は処理を終了し、図5のS508へ進む。   In step S612, the touch state detection unit 113 determines whether or not the touch position has been moved without releasing the detected touch of the two fingers. As a result of the determination, if the touch position has been moved, the process proceeds to step S613. If the touch position has not been moved, the process ends, and the process proceeds to S508 in FIG.

ステップS613においては、全体制御部114の制御により合成部107は、タッチされている動画オブジェクトの表示位置を、指のタッチ位置の移動に追従して移動させる。すなわち、動画オブジェクトのドラッグを受け付ける。   In step S613, under the control of the overall control unit 114, the composition unit 107 moves the display position of the touched moving image object following the movement of the finger touch position. That is, it accepts a drag of a moving image object.

次に、ステップS614においては、タッチ状態検出部113による検出に基づいて全体制御部114は、指の移動により2本の指によるタッチ位置の間の距離が閾値D以下になったか否かを判定する。この判定の結果、閾値D以下になった場合はステップS615へ進み、閾値D以下になっていない場合は処理を終了し、図5のステップS508へ進む。   Next, in step S614, based on the detection by the touch state detection unit 113, the overall control unit 114 determines whether or not the distance between the touch positions of the two fingers is equal to or less than the threshold value D due to the movement of the finger. To do. As a result of this determination, if the threshold value D is less than or equal to the threshold value D, the process proceeds to step S615.

ステップS615においては、全体制御部114の制御により、2本の指でタッチされている異なる2つの動画オブジェクトが示す動画データを結合する。このとき、タッチパネル205においては、合成部107により、2つの動画オブジェクトの表示位置に基づいて、より左に位置している動画オブジェクトの後に、他方の動画オブジェクトを結合し、1つのタイムラインとして表示する。実際には、x方向で他方より左に位置している動画オブジェクトが示す動画の最終フレームの後に、他方の動画オブジェクトの動画の先頭フレームが続くように、連続して再生可能な1つの結合した動画データを新たに生成する。そして、記録媒体アクセス部111により新たに生成した動画データを記録媒体120に記録する。これにより、複数表示されて動画オブジェクトの中から、互いに結合したい動画オブジェクトを同時にタッチして近づけるという操作を行うだけで、簡単に所望の動画を所望の順番で結合することができる。また、このときの表示例を、図14〜図16に示す。図14〜図16の詳細については後述する。以上のようにステップS615の処理を終えると処理を終了し、図5のステップS508へ進む。   In step S615, moving image data indicated by two different moving image objects touched with two fingers is combined under the control of the overall control unit 114. At this time, on the touch panel 205, based on the display position of the two moving image objects, the other moving image object is combined with the other moving image object and displayed as one timeline by the combining unit 107. To do. Actually, one combined that can be played back continuously so that the first frame of the moving image of the other moving image object follows the last frame of the moving image indicated by the moving image object positioned to the left of the other in the x direction. Create new video data. Then, the moving image data newly generated by the recording medium access unit 111 is recorded on the recording medium 120. As a result, a desired moving image can be easily combined in a desired order simply by performing an operation of simultaneously touching and moving the moving image objects to be combined with each other from among the displayed moving image objects. Also, display examples at this time are shown in FIGS. Details of FIGS. 14 to 16 will be described later. When the process of step S615 is completed as described above, the process ends, and the process proceeds to step S508 of FIG.

以上の制御により、タッチパネル205上に表示された動画オブジェクトをタッチして操作することにより、タイムラインを用いた動画の内容の確認、コピー、及び結合という操作を、直感的で簡単にすばやく行うことができる。   By the above control, touching and operating the moving image object displayed on the touch panel 205 makes it possible to intuitively and easily perform operations such as confirmation, copying, and combining of moving image contents using the timeline. Can do.

次に3本の指に関する処理について、図7を参照しながら説明する。図7は、図5のステップS510における3本の指での操作に関する詳細な処理手順の一例を示すフローチャートである。
まず、ステップS701においては、3本の指での操作に関する処理を開始する。そして、ステップS702において、タッチ状態検出部113は第1の判定手段として機能し、3本の指で指定した動画オブジェクトは同一のものを指しているか否かを判定する。この判定の結果、同一の動画オブジェクトを指定している場合はステップS703に進み、同一の動画オブジェクトを指定していない場合はステップS716に進む。なお、ステップS715においては、同一の動画オブジェクトでない場合の処理を行う。この場合の処理については、動画オブジェクトを特定できないものとして何もしないようにしてもよい。本実施形態では同一の動画オブジェクトを指示して操作した場合について説明するため、詳細な説明は割愛する。
Next, processing related to three fingers will be described with reference to FIG. FIG. 7 is a flowchart showing an example of a detailed processing procedure regarding the operation with three fingers in step S510 of FIG.
First, in step S701, processing related to an operation with three fingers is started. In step S702, the touch state detection unit 113 functions as a first determination unit, and determines whether or not the moving image objects designated by the three fingers indicate the same thing. As a result of the determination, if the same moving image object is designated, the process proceeds to step S703, and if the same moving image object is not designated, the process proceeds to step S716. In step S715, processing is performed when the moving image objects are not the same. As for the processing in this case, nothing may be performed assuming that the moving image object cannot be specified. In the present embodiment, a case where the same moving image object is specified and operated will be described, and a detailed description thereof will be omitted.

ステップS703においては、タッチ状態検出部113は、指のタッチ位置(接触位置)を監視することにより、タッチ位置が移動したか否かを判定する。この判定の結果、タッチ位置が移動した場合はステップS704に進み、移動していない場合は処理を終了し、図5のステップS511に進む。   In step S703, the touch state detection unit 113 determines whether or not the touch position has moved by monitoring the touch position (contact position) of the finger. As a result of this determination, if the touch position has moved, the process proceeds to step S704. If not, the process ends, and the process proceeds to step S511 in FIG.

ステップS704においては、タッチ状態検出部113は第2の判定手段として機能し、移動した指の数をカウントし、3本とも指が移動したか否かを判定する。この判定の結果、3本とも移動した場合はステップS714へ進み、移動した指が2本以下である場合はステップS705へ進む。ステップS714においては、3点とも移動した場合の処理を行う。この場合の処理については、オブジェクトに対してどのように指示を出すかを特定できないものとして何もしないようにしてもよい。なお、本実施形態では3本の操作については言及していないため、詳細な説明は割愛する。   In step S704, the touch state detection unit 113 functions as a second determination unit, counts the number of moved fingers, and determines whether all three fingers have moved. As a result of the determination, if all three have moved, the process proceeds to step S714, and if there are two or less fingers, the process proceeds to step S705. In step S714, processing is performed when all three points have moved. As for the processing in this case, nothing may be performed on the assumption that it is not possible to specify how to instruct the object. In addition, in this embodiment, since three operations are not mentioned, detailed description is omitted.

ステップS705においては、タッチ状態検出部113は、カウントの結果、1本の指のみが移動したか否かを判定する。この判定の結果、1本の指のみ移動した場合はステップS709へ進み、2本の指が移動した場合はステップS706へ進む。   In step S705, the touch state detection unit 113 determines whether only one finger has moved as a result of the count. If only one finger is moved as a result of this determination, the process proceeds to step S709, and if two fingers are moved, the process proceeds to step S706.

ステップS706においては、タッチ状態検出部113による検出に基づいて全体制御部114は、2本の指の移動量が閾値Eを超えたか否かを判定する。この判定の結果、閾値Eを超えている場合はステップS708へ進み、閾値E以下である場合はステップS707へ進む。ステップS707においては、全体制御部114の制御により合成部107は、2本の指により指定されたフレーム画像の範囲に相当する部分を分離させて表示する。そして、ステップS716へ進んで処理を終了し、図5のステップS511へ進む。一方、ステップS708においては、全体制御部114の制御により、2本の指により指定されたフレーム画像の範囲に相当する動画の部分をコピーする。そして、ステップS716へ進んで処理を終了し、図5のステップS511へ進む。   In step S706, based on the detection by the touch state detection unit 113, the overall control unit 114 determines whether the movement amount of the two fingers has exceeded the threshold value E. As a result of the determination, if the threshold value E is exceeded, the process proceeds to step S708, and if it is equal to or less than the threshold value E, the process proceeds to step S707. In step S707, under the control of the overall control unit 114, the synthesizing unit 107 separates and displays a portion corresponding to the range of the frame image designated by the two fingers. And it progresses to step S716, a process is complete | finished, and progresses to step S511 of FIG. On the other hand, in step S708, under the control of the overall control unit 114, a moving image portion corresponding to the range of the frame image designated by the two fingers is copied. And it progresses to step S716, a process is complete | finished, and progresses to step S511 of FIG.

ステップS709においては、タッチ状態検出部113による検出に基づいて全体制御部114は、1本の指の移動量が閾値Fを超えたか否かを判定する。この判定の結果、閾値Fを超えた場合はステップS711へ進み、閾値F以下であった場合はステップS710へ進む。ステップS710においては、全体制御部114の制御により、1点で指定されたオブジェクトのフレーム画像に相当する動画の部分をコピーする。このとき、静止画に切り出す旨のプレビュー表示を行ってもよい。そして、ステップS716へ進んで処理を終了し、図5のステップS511へ進む。   In step S709, based on the detection by the touch state detection unit 113, the overall control unit 114 determines whether or not the movement amount of one finger exceeds the threshold value F. As a result of the determination, if the threshold value F is exceeded, the process proceeds to step S711, and if it is equal to or less than the threshold value F, the process proceeds to step S710. In step S710, under the control of the overall control unit 114, a moving image portion corresponding to the frame image of the object designated by one point is copied. At this time, a preview display for cutting out a still image may be performed. And it progresses to step S716, a process is complete | finished, and progresses to step S511 of FIG.

一方、ステップS711においては、全体制御部114の制御により、現在のモードが静止画切り出しモードであるか否かを判定する。この判定の結果、静止画切り出しモードである場合はステップS712へ進み、その他のモードである場合はステップS713へ進む。ステップS712においては、全体制御部114の制御により、1本の指により指定されたフレーム画像を静止画へ切り出す。そして、ステップS716へ進んで処理を終了し、図5のステップS511へ進む。一方、ステップS713においては、全体制御部114の制御により、1本の指により指定されたフレーム画像に相当する動画の部分をコピーする。そして、ステップS716へ進んで処理を終了し、図5のステップS511へ進む。   On the other hand, in step S711, it is determined by the control of the overall control unit 114 whether or not the current mode is the still image clipping mode. If the result of this determination is that it is in the still image cut-out mode, processing proceeds to step S712, and if it is in any other mode, processing proceeds to step S713. In step S712, under the control of the overall control unit 114, the frame image designated by one finger is cut out to a still image. And it progresses to step S716, a process is complete | finished, and progresses to step S511 of FIG. On the other hand, in step S713, a moving image portion corresponding to the frame image designated by one finger is copied under the control of the overall control unit 114. And it progresses to step S716, a process is complete | finished, and progresses to step S511 of FIG.

(コピーの例)
次に、実際のコピーの方法について説明する。図8は、図3のインデックス表示されたオブジェクトの中からコピーの対象として1つの動画オブジェクトが選択され、図6のステップS606においてコピーする手順の一例を示す図である。
図8(a)においては、1つのサムネールで表現された動画コンテンツ803が親指801及び人差し指802の2つの指でタッチされ、さらに2本の指の間隔が広がっていく動作を示している。その結果、コピーされた動画オブジェクトのサムネール804が表示される。なお、この時点で指が離れた場合は動画データがコピーされないものとし、親指801と人差し指802との距離が前述した閾値Bを超えた状態で指が離れることによりサムネール805が分離し、動画データがコピーされる。
(Example of copy)
Next, an actual copying method will be described. FIG. 8 is a diagram illustrating an example of a procedure in which one moving image object is selected as a copy target from the objects displayed in the index of FIG. 3 and copying is performed in step S606 of FIG.
FIG. 8A shows an operation in which the moving image content 803 expressed by one thumbnail is touched with two fingers, that is, the thumb 801 and the index finger 802, and the interval between the two fingers is further expanded. As a result, a thumbnail 804 of the copied moving image object is displayed. Note that if the finger is released at this time, the moving image data is not copied, and the thumbnail 805 is separated when the finger is released in a state where the distance between the thumb 801 and the index finger 802 exceeds the above-described threshold value B. Is copied.

また、図8(b)に示すように、複数のサムネールで表現されたインデックスの場合も同様である。2枚のサムネールからなる動画オブジェクト806を指により摘んで広げられると、重なった動画オブジェクト807が生成され、さらには完全に分離した動画オブジェクト808が生成される。このとき、動画データがコピーされることとなる。   The same applies to an index expressed by a plurality of thumbnails as shown in FIG. When a moving image object 806 made up of two thumbnails is picked up and spread by a finger, an overlapping moving image object 807 is generated, and further, a completely separated moving image object 808 is generated. At this time, the moving image data is copied.

次に、動画データのコピーのうち、範囲を指定してコピーする場合について説明する。図9は、3本の指を用いて動画コンテンツの中から指定範囲をコピーする手順の一例を示す図である。
図9(a)には、図7のステップS710、S712及びS713において、複数のサムネールからなる動画オブジェクトのうちの一部を選択して静止画として切り出す、もしくは動画の一部をコピーする例を示している。図9(a)に示すように、左手親指901、右手人差し指902、及び右手中指903の3本の指で動画オブジェクト904が指示されている。
Next, a description will be given of a case where a range is specified for copying of moving image data. FIG. 9 is a diagram showing an example of a procedure for copying a specified range from the moving image content using three fingers.
FIG. 9A shows an example in which a part of a moving image object composed of a plurality of thumbnails is selected and cut out as a still image or a part of a moving image is copied in steps S710, S712, and S713 in FIG. Show. As shown in FIG. 9A, the moving image object 904 is designated by three fingers, that is, the left thumb 901, the right index finger 902, and the right middle finger 903.

この状態で右手中指903のみがタッチパネル205の画面の上部へ移動すると、右手中指903がタッチしているサムネール905が動画オブジェクトから分離するように表示される。さらに右手中指903が上方へスライドされると、サムネール906が動画オブジェクトから完全に分離した状態になる。このとき、右手中指903で指定されたサムネールに該当する動画の区間がコピーされる。なお、この操作によりサムネール906の部分を動画データから静止画として切り出すようにしてもよい。   In this state, when only the right hand middle finger 903 moves to the upper part of the screen of the touch panel 205, the thumbnail 905 touched by the right hand middle finger 903 is displayed so as to be separated from the moving image object. When the middle finger 903 of the right hand is further slid upward, the thumbnail 906 is completely separated from the moving image object. At this time, the moving image section corresponding to the thumbnail designated by the middle right finger 903 is copied. Note that the thumbnail 906 may be cut out from the moving image data as a still image by this operation.

図9(b)には、図7のステップS707及びS708において、左手親指で動画オブジェクトを押さえ、右手の2本の指を移動させる状態を示している。この状態では、右手の人差し指と中指とで動画オブジェクトのサムネールを指示することにより区間を指示している。人差し指と中指とがタッチパネル205の上部へスライドさせるように平行移動すると、動画オブジェクトの指定区間のサムネール907が指とともに移動し、動画オブジェクトから完全に分離した状態になる。そして、さらに指がスライドされると、指定区間の領域908の動画データがコピーされる。   FIG. 9B shows a state where the moving object is pressed with the left thumb and the two fingers of the right hand are moved in steps S707 and S708 of FIG. In this state, the segment is instructed by instructing the thumbnail of the moving image object with the index finger and the middle finger of the right hand. When the index finger and the middle finger are moved in parallel so as to slide to the upper part of the touch panel 205, the thumbnail 907 in the designated section of the moving image object moves with the finger and is completely separated from the moving image object. When the finger is further slid, the moving image data in the designated section area 908 is copied.

(コピー不可の場合の例)
次に、コピーができない動画オブジェクトが選択された場合の処理について図10を参照しながら説明する。図10は、コピーができない動画オブジェクトを選択してコピーを実施しようとしている状態の一例を示す図である。
前述したように、コピーが可能なオブジェクトの場合、動画オブジェクトのサムネールが分かれた状態の表示で操作が終了する。ところがコピーができないオブジェクトの場合、図10に示すように、人差し指1001がタッチパネル205から離れると、サムネール1002が元の状態に戻るように動作する。このようにコピーできたかの様にユーザーに見せておきながら元の状態に戻すことにより、コピーができない旨を明示的にユーザーに伝えることができる。このとき、コピーできない旨のメッセージを表示して警告してもよい。また、図9に示すように動画オブジェクトから動画の一部をコピーしたり静止画を切り出したりする場合も同様に、コピーもしくは静止画を切り出したかの様にユーザーに見せておきながら元の状態に戻す。そして、コピーできない旨のメッセージを表示して警告してもよい。
(Example when copy is not possible)
Next, processing when a moving image object that cannot be copied is selected will be described with reference to FIG. FIG. 10 is a diagram illustrating an example of a state in which a moving image object that cannot be copied is selected to be copied.
As described above, in the case of an object that can be copied, the operation ends when the thumbnail of the moving image object is displayed. However, in the case of an object that cannot be copied, as shown in FIG. 10, when the index finger 1001 is released from the touch panel 205, the thumbnail 1002 returns to its original state. By returning to the original state while showing it to the user as if it was copied in this way, it is possible to explicitly notify the user that copying cannot be performed. At this time, a message indicating that copying cannot be performed may be displayed to warn. Similarly, when a part of a moving image is copied from a moving image object or a still image is cut out as shown in FIG. 9, the original state is restored while showing the user as if the copy or still image was cut out. . Then, a message may be displayed to warn that copying cannot be performed.

(タイムライン操作の例)
次に、動画オブジェクトのタイムライン表示の操作について図11を参照しながら説明する。以下の説明では、図3に示したタッチパネル205の表示画面310に表示される動画オブジェクトのインデックス313を例に説明する。
(Example of timeline operation)
Next, the operation for displaying the timeline of the moving image object will be described with reference to FIG. In the following description, the moving image object index 313 displayed on the display screen 310 of the touch panel 205 shown in FIG. 3 will be described as an example.

図11(a)には、タイムラインを表示する動画オブジェクトを選択する方法の一例を示している。動画オブジェクト1101に対し、右手の親指1102及び右手の人差し指1103の2本の指をタッチすることにより、タイムラインの表示を開始することができる。   FIG. 11A shows an example of a method for selecting a moving image object for displaying a timeline. By touching the moving object 1101 with two fingers, the right thumb 1102 and the right index finger 1103, the display of the timeline can be started.

図11(b)には、図6のステップS608において、タイムラインを表示する方法の一例を示している。図11(a)に示すようにタッチした2本の指を引き離すようにして、タッチパネル205上で指を滑らせると、指と指との距離に応じたフレーム画像数になるように計算する。そして、タッチパネル205にインデックスで構成されたタイムライン1104が表示される。図11(b)に示す例では、指と指との間隔から3枚のフレーム画像が表示されている。   FIG. 11B shows an example of a method for displaying a timeline in step S608 of FIG. As shown in FIG. 11A, when the two touched fingers are pulled apart and the finger is slid on the touch panel 205, the number of frame images corresponding to the distance between the fingers is calculated. Then, a timeline 1104 composed of indexes is displayed on the touch panel 205. In the example shown in FIG. 11B, three frame images are displayed from the interval between the fingers.

図11(c)には、さらに特定の区間のタイムラインを詳細に表示する例を示している。図11(b)に示した状態で18秒目から36秒目の間のタイムラインを詳細に見たい場合は、右手の親指1102をタッチパネル205から一旦離し、18秒目のフレーム画像にタッチする。この状態で指と指とをタッチパネル205にタッチしたまま引き離す方向に広げると、図11(c)に示すように18秒目から36秒目の間のフレーム画像が等間隔になるようなタイムライン1105が表示される。   FIG. 11C shows an example in which the timeline of a specific section is further displayed in detail. In the state shown in FIG. 11B, if you want to see the timeline between the 18th and 36th seconds in detail, release the thumb 1102 of the right hand from the touch panel 205 and touch the frame image at the 18th second. . In this state, when the fingers are spread apart in the direction in which they are touched on the touch panel 205, the timeline is such that the frame images between the 18th and 36th seconds are equally spaced as shown in FIG. 11 (c). 1105 is displayed.

図12は、動画オブジェクトを2本の指で選択して広げすぎた場合の表示例を示している。図12(a)に示すタイムライン1201は、動画オブジェクトの30秒目から33秒目の全てのフレーム画像が表示された状態であり、これ以上指を広げてもフレーム画像が表示されない状態である。以下、この状態を超えてさらに指を広げようとした場合として2つの例を示す。   FIG. 12 shows a display example when a moving image object is selected with two fingers and spread too much. A timeline 1201 shown in FIG. 12A is a state in which all the frame images from the 30th to 33rd seconds of the moving image object are displayed, and the frame image is not displayed even if the finger is further spread. . In the following, two examples are shown as cases where the finger is further spread beyond this state.

1つ目のケースは、図12(b)に示すように、タイムライン1202がそのままの状態でタッチした指にフレーム画像がついていかないケースであり、フレーム画像を新しく生成できないため、フレーム画像が追加されない。このようにすることにより、ユーザーは動画オブジェクトのタイムライン表示が端まで到達したことを知ることができる。   In the first case, as shown in FIG. 12B, the frame image is not attached to the finger touched with the timeline 1202 as it is, and the frame image cannot be newly generated. Not added. In this way, the user can know that the timeline display of the moving image object has reached the end.

2つ目のケースは、図12(c)に示すように、タッチした指の場所にフレーム画像がついていくケースである。この場合、新しいフレーム画像は生成できないが、指と指との間のフレーム画像の間隔を広げたタイムライン1203が表示される。この場合、指がタッチパネル205から離れると通常のフレーム画像同士を連続して表示する通常表示に戻る。このように、これ以上フレーム画像を表示できない場合をユーザーに伝えることにより、ユーザーは表示限界を知ることができる。   The second case is a case where a frame image follows the location of the touched finger as shown in FIG. In this case, a new frame image cannot be generated, but a timeline 1203 in which the interval between frame images between fingers is widened is displayed. In this case, when the finger leaves the touch panel 205, the normal display for continuously displaying normal frame images returns. In this way, the user can know the display limit by telling the user that no more frame images can be displayed.

図13には、図6のステップS610において、動画オブジェクトのインデックスを1枚のフレーム画像で表す際のフレーム画像を決定する方法の一例を示している。動画オブジェクトを指で操作し、指同士を近づけていくと、動画オブジェクトのインデックスが1枚のフレーム画像になる。このときの1枚のフレーム画像を決定する方法として2つの例を示す。   FIG. 13 shows an example of a method for determining a frame image when the index of the moving image object is represented by one frame image in step S610 of FIG. When a moving image object is operated with a finger and the fingers are brought closer to each other, the moving image object index becomes one frame image. Two examples are shown as methods for determining one frame image at this time.

1つ目の方法は、図13(a)に示すように、動画オブジェクトのインデックスを1枚のフレーム画像で表す際に、先頭のフレーム画像を動画オブジェクト1301とする方法である。2つ目の方法は、図13(b)に示すように、動画オブジェクトのインデックスを1枚のフレーム画像で表す際に、予めユーザーが代表画像として決定しているフレーム画像1302を動画オブジェクト1303とする方法である。この場合、動画データを再生する時やインデックス表示を行う時に、動画オブジェクトを代表するフレーム画像として所望のフレーム画像をユーザーが登録できるようにしてもよい。また、デジタルカメラ等において最も特徴のある顔が抽出された画像をフレーム画像として利用してもよい。   In the first method, as shown in FIG. 13A, when the index of a moving image object is represented by one frame image, the first frame image is used as a moving image object 1301. In the second method, as shown in FIG. 13B, when the index of the moving image object is represented by one frame image, the frame image 1302 that the user has determined in advance as the representative image is defined as the moving image object 1303. It is a method to do. In this case, when reproducing moving image data or displaying an index, a user may register a desired frame image as a frame image representing a moving image object. In addition, an image from which a most characteristic face is extracted in a digital camera or the like may be used as a frame image.

このように、動画のフレーム画像が1枚になったときに、ユーザーが指定するフレーム画像、もしくは動画オブジェクトの先頭のフレーム画像を表示することにより、様々な動画、静止画のインデックスから所望の動画を見つけやすくすることができる。   In this way, when the frame image of the moving image becomes one, the frame image specified by the user or the top frame image of the moving image object is displayed, so that the desired moving image can be selected from various moving images and still image indexes. Can make it easier to find.

(結合操作の例)
図14には、図6のステップS615において、複数の動画オブジェクトを1つのインデックスに結合する方法の一例を示している。
図14において、左側の動画オブジェクト1401は、結合後に動画の前半部分になる動画オブジェクトである。一方、右側の動画オブジェクト1402は、結合後に動画の後半部分になる動画オブジェクトである。左手人差し指1403、及び右手人差し指1404がそれぞれ指示した動画オブジェクトを、互いに近づけていくことにより接近させていく。動画オブジェクト同士の距離1405がある閾値を下回ると、動画オブジェクトが結合されて1つのインデックス1406になる。なお、図6のステップS614では、2点のタッチ位置を基準に閾値を用いているが、図14に示す閾値は、最初のタッチ位置で決定される閾値である。このとき、実際に2つの動画データを結合させてもよいし、動画データそのものは結合せずプレイリスト上でのみ結合してもよい。
(Example of join operation)
FIG. 14 shows an example of a method for combining a plurality of moving image objects into one index in step S615 of FIG.
In FIG. 14, a moving image object 1401 on the left is a moving image object that becomes the first half of the moving image after combining. On the other hand, the moving image object 1402 on the right side is a moving image object that becomes the latter half of the moving image after combining. The moving image objects respectively designated by the left hand index finger 1403 and the right hand index finger 1404 are moved closer to each other. When the distance 1405 between the moving image objects falls below a certain threshold, the moving image objects are combined into one index 1406. Note that in step S614 in FIG. 6, threshold values are used with reference to two touch positions, but the threshold values shown in FIG. 14 are threshold values determined at the first touch position. At this time, the two moving image data may be actually combined, or the moving image data itself may be combined only on the playlist.

また、図15に示すように、インデックスを結合した時に表示効果をつけてもよい。図15に示すように、指で指示した2つの動画オブジェクトを接近させ、2つの動画オブジェクトの距離1501がある閾値を下回ったときに2つの動画が結合した場合のプレビュー画像1502が表示される。さらに、プレビュー画像1502の表示サイズは、2つの動画オブジェクトの距離1501に応じて変化する。   Further, as shown in FIG. 15, a display effect may be applied when indexes are combined. As shown in FIG. 15, when two moving image objects designated by a finger are brought close to each other and a distance 1501 between the two moving image objects falls below a certain threshold value, a preview image 1502 when the two moving images are combined is displayed. Furthermore, the display size of the preview image 1502 changes according to the distance 1501 between the two moving image objects.

また、2つの動画オブジェクトが結合する寸前では、より大きなプレビュー画像1503が表示され、2つの動画オブジェクトを結合したときに結合点の前後1秒の動画オブジェクトがプレビュー画像1503に繰り返し表示される。これにより、ユーザーはこのプレビュー画像を見ながら結合した後のイメージをつかむことができる。さらに、2つの動画オブジェクトをさらに接近させて動画オブジェクトを結合させると、動画オブジェクトが1つのインデックス1504になったイメージが表示される。このとき、プレビュー画像1503の表示は停止する。   Also, a preview image 1503 that is larger immediately before the two moving image objects are combined is displayed, and when the two moving image objects are combined, the moving image object that is 1 second before and after the combining point is repeatedly displayed on the preview image 1503. As a result, the user can grasp the combined image while viewing the preview image. Further, when two moving image objects are further brought closer to each other and the moving image objects are combined, an image in which the moving image object has one index 1504 is displayed. At this time, the display of the preview image 1503 is stopped.

図16には、動画オブジェクト同士を結合する際に、結合できない場合の表示方法の一例を示している。図16に示す例では、結合対象の動画オブジェクト1601、1602があり、この2つの動画オブジェクトを指で指示して接近させる。2つの動画オブジェクトの重なる幅1603がある閾値を超えると、通常は2つの動画オブジェクトが結合される。しかしながら動画オブジェクトの属性などにより2つの動画オブジェクトが結合できないと判断されたときは、指を動画オブジェクトから離したときに、2つの動画オブジェクトはお互いに反発しあうように距離1604をおいて表示される。このような表示となる例として挙げられるのは動画のエンコード方法などの属性が異なる場合である。例えば、一方の動画データがMPEG1により圧縮され、もう一方の動画データがMPEG2で圧縮されているような場合である。このように2つの動画オブジェクトを反発させるように表示させることにより、2つの動画オブジェクトは結合できない旨をユーザーに伝えることができる。なお、結合できない旨のメッセージを表示して警告してもよい。   FIG. 16 shows an example of a display method when the moving image objects cannot be combined when the moving image objects are combined. In the example shown in FIG. 16, there are moving image objects 1601 and 1602 to be combined, and these two moving image objects are instructed to approach each other with a finger. When the overlapping width 1603 of two moving image objects exceeds a certain threshold value, the two moving image objects are usually combined. However, when it is determined that the two moving image objects cannot be combined due to the attribute of the moving image object, the two moving image objects are displayed at a distance 1604 so that they repel each other when the finger is removed from the moving image object. The An example of such display is when attributes such as a moving image encoding method are different. For example, one moving image data is compressed by MPEG1 and the other moving image data is compressed by MPEG2. By displaying the two moving image objects so as to be repelled in this way, it is possible to inform the user that the two moving image objects cannot be combined. In addition, a message that it cannot be combined may be displayed to warn.

以上のように本実施形態によれば、タッチパネル上の指の操作により動画のタイムライン表示を自由に取り扱えることができ、ユーザーはより重点的に見たい動画の場所を詳細に見ることができる。さらに、まばらに動画の内容を見たい場合もタイムライン表示によりまばらに表示することができる。このようなタイムライン表示によってユーザーは自由に動画を操作できるようになる。   As described above, according to the present embodiment, the timeline display of a moving image can be freely handled by the operation of a finger on the touch panel, and the user can see in detail the location of the moving image to be viewed more focused. Furthermore, even when it is desired to view the contents of a moving image sparsely, it can be displayed sparsely by the timeline display. Such a timeline display allows the user to freely operate the moving image.

なお、全体制御部114の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されない。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、プリンタ装置に設けられた印刷画像選択および確認のためのディスプレイ、デジタルフォトフレームなどにも適用可能である。すなわち、動画のタイムラインをタッチパネルである表示装置に表示するように制御可能な表示制御装置であれば適用可能である。なお、本発明は動画に限らず、他のデータ(静止画、文書ファイル、音楽ファイル等のコンテンツデータ)を表す表示オブジェクトを用いたデータのコピーにも適用可能である。   Note that the control of the overall control unit 114 may be performed by a single piece of hardware, or the entire apparatus may be controlled by a plurality of pieces of hardware sharing the processing. Although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms without departing from the gist of the present invention are also included in the present invention. included. Furthermore, each embodiment mentioned above shows only one embodiment of this invention, and it is also possible to combine each embodiment suitably. Further, in the above-described embodiment, the case where the present invention is applied to a digital camera has been described as an example, but this is not limited to this example. That is, the present invention can be applied to a personal computer, a PDA, a mobile phone terminal, a portable image viewer, a display for selecting and confirming a print image provided in a printer, a digital photo frame, and the like. In other words, any display control device that can be controlled to display a timeline of a moving image on a display device that is a touch panel is applicable. The present invention is not limited to moving images, and can also be applied to data copying using display objects representing other data (content data such as still images, document files, and music files).

(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記録したコンピュータ読み取り可能な記録媒体は本発明を構成することになる。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program code. It is a process to be executed. In this case, the program and a computer-readable recording medium recording the program constitute the present invention.

102 タッチパネル部、103 表示部、107 合成部、111 記録媒体アクセス部、113 タッチ状態検出部、114 全体制御部 102 touch panel unit, 103 display unit, 107 composition unit, 111 recording medium access unit, 113 touch state detection unit, 114 overall control unit

Claims (23)

コンテンツデータを表す表示オブジェクトを表示部に表示するよう制御する表示制御手段と、
前記表示部へのタッチ位置を検出する検出手段と、
前記表示部に表示された単一の前記表示オブジェクトにおいて2箇所のタッチ位置を前記検出手段により検出したか否かを判定する判定手段と、
前記判定手段により、単一の前記表示オブジェクトに2箇所のタッチ位置を検出したと判定した場合に、タッチしたまま前記タッチ位置が第1の方向に移動して、移動後の2箇所のタッチ位置の間の前記第1の方向の距離が所定距離以上になった場合に、前記表示オブジェクトが表すコンテンツデータを複製して記録媒体に記録するための制御を行い、タッチしたまま前記タッチ位置が第2の方向に移動した場合に、移動後の2箇所のタッチ位置の間の距離に応じた数のフレーム画像を前記表示オブジェクトが表すコンテンツデータから抽出し、前記移動後の2箇所のタッチ位置の間に前記抽出したフレーム画像を表示するように制御する制御手段と
を有することを特徴とする表示制御装置。
Display control means for controlling the display object representing the content data to be displayed on the display unit;
Detecting means for detecting a touch position on the display unit;
Determination means for determining whether or not two detection positions are detected by the detection means in the single display object displayed on the display unit;
When it is determined by the determination means that two touch positions have been detected on a single display object, the touch positions move in the first direction while being touched, and the two touch positions after movement if the distance of the first direction between exceeds a predetermined distance, have row control for recording on a recording medium by replicating the content data to which the display object is represented, said touch position while touching When moving in the second direction, the number of frame images corresponding to the distance between the two touch positions after the movement is extracted from the content data represented by the display object, and the two touch positions after the movement And a control means for controlling the extracted frame image to be displayed between the display control device and the display control device.
前記表示制御手段は、前記検出手段によって検出されたタッチ位置に表示されている前記表示オブジェクトの表示位置を、前記タッチ位置の移動に追従して変更し、
前記表示部の2箇所がタッチされ、それぞれのタッチ位置でそれぞれ異なる表示オブジェクトがタッチされた場合に、前記2箇所のタッチ位置の距離が、少なくとも一方のタッチ位置の移動により所定値以下となると、前記制御手段は、前記それぞれ異なる表示オブジェクトが表すコンテンツデータを、前記タッチ位置の移動に追従して変更された表示オブジェクトの表示位置に基づいた順番で結合した単一のコンテンツデータを生成するための制御を行うことを特徴とする請求項に記載の表示制御装置。
The display control means changes the display position of the display object displayed at the touch position detected by the detection means, following the movement of the touch position,
When two places of the display unit are touched and different display objects are touched at the respective touch positions, the distance between the two touch positions becomes a predetermined value or less due to the movement of at least one of the touch positions. The control unit is configured to generate single content data in which the content data represented by the different display objects is combined in an order based on the display position of the display object changed following the movement of the touch position. The display control apparatus according to claim 1 , wherein control is performed.
コンテンツデータを表す表示オブジェクトを表示部に表示するよう制御する表示制御手段と、
前記表示部へのタッチ位置を検出する検出手段と、
前記表示部に表示された単一の前記表示オブジェクトにおいて2箇所のタッチ位置を前記検出手段により検出したか否かを判定する判定手段と、
前記判定手段により、単一の前記表示オブジェクトに2箇所のタッチ位置を検出したと判定した場合に、タッチしたまま前記タッチ位置が移動して、移動後の2箇所のタッチ位置の間が所定距離以上になった場合に、前記表示オブジェクトが表すコンテンツデータを複製して記録媒体に記録するための制御を行う制御手段とを有し、
前記表示制御手段は、前記検出手段によって検出されたタッチ位置に表示されている前記表示オブジェクトの表示位置を、前記タッチ位置の移動に追従して変更し、
前記表示部の2箇所がタッチされ、それぞれのタッチ位置でそれぞれ異なる表示オブジェクトがタッチされた場合に、前記2箇所のタッチ位置の距離が、少なくとも一方のタッチ位置の移動により所定値以下となると、前記制御手段は、前記それぞれ異なる表示オブジェクトが表すコンテンツデータを、前記タッチ位置の移動に追従して変更された表示オブジェクトの表示位置に基づいた順番で結合した単一のコンテンツデータを生成するための制御を行うことを特徴とする表示制御装置。
Display control means for controlling the display object representing the content data to be displayed on the display unit;
Detecting means for detecting a touch position on the display unit;
Determination means for determining whether or not two detection positions are detected by the detection means in the single display object displayed on the display unit;
When it is determined by the determination means that two touch positions are detected on the single display object, the touch position moves while touching, and a distance between the two touch positions after the movement is a predetermined distance. if it becomes more than, have a control means for performing control to record on a recording medium by replicating the content data to which the display object is represented,
The display control means changes the display position of the display object displayed at the touch position detected by the detection means, following the movement of the touch position,
When two places of the display unit are touched and different display objects are touched at the respective touch positions, the distance between the two touch positions becomes a predetermined value or less due to the movement of at least one of the touch positions. The control unit is configured to generate single content data in which the content data represented by the different display objects is combined in an order based on the display position of the display object changed following the movement of the touch position. A display control device that performs control.
前記表示オブジェクトが表すコンテンツデータが複製できないものである場合に、警告を行う警告手段をさらに有することを特徴とする請求項1〜3の何れか1項に記載の表示制御装置。 Wherein when the content data display object represents is one that can not be replicated, the display control device according to any one of claims 1 to 3, further comprising a warning means for performing warning. 前記コンテンツデータは動画であることを特徴とする請求項1〜の何れか1項に記載の表示制御装置。 The content data display control device according to any one of claims 1-4, characterized in that the moving image. 前記コンテンツデータは音声データであることを特徴とする請求項1〜の何れか1項に記載の表示制御装置。 The content data display control device according to any one of claim 1 to 5, characterized in that voice data. 前記表示制御装置は、撮像手段を備える撮像装置であることを特徴とする請求項1〜の何れか1項に記載の表示制御装置。 The display control device, the display control device according to any one of claim 1 to 6, characterized in that an imaging apparatus including the imaging means. 前記表示制御装置は、携帯電話端末であることを特徴とする請求項1〜の何れか1項に記載の表示制御装置。 The display control device, the display control device according to any one of claim 1 to 7, characterized in that a mobile telephone terminal. コンテンツデータのタイムラインを表示部に表示するよう制御する表示制御手段と、
前記表示部へのタッチ位置を検出する検出手段と、
前記表示部に表示された単一の前記タイムラインにおいて3箇所のタッチ位置を前記検出手段により検出したか否かを判定する判定手段と、
前記判定手段により、単一の前記タイムラインに3箇所のタッチ位置を検出したと判定した場合に、タッチしたまま前記3箇所のうちの箇所のタッチ位置が移動して、前記移動したタッチ位置と移動前のタッチ位置との間が所定距離以上になった場合に、当該タイムラインが表すコンテンツデータ全範囲のうちの一部範囲であって、当該タイムライン上で、前記移動した2箇所のタッチ位置に指定された範囲のコンテンツデータを複製して記録媒体に記録するための制御を行う制御手段と
を有することを特徴とする表示制御装置。
Display control means for controlling to display the timeline of the content data on the display unit;
Detecting means for detecting a touch position on the display unit;
A determination unit that determines whether or not three detection positions are detected by the detection unit in the single timeline displayed on the display unit;
When it is determined by the determination means that three touch positions are detected in the single timeline , two touch positions of the three positions move while being touched, and the moved touch positions And the touch position before the movement is a predetermined distance or more, and is a partial range of the entire content data range represented by the timeline, and the two moved positions on the timeline . A display control apparatus comprising: control means for performing control for copying and recording content data in a range specified by a touch position on a recording medium.
前記タイムラインが表すコンテンツデータが複製できないものである場合に、警告を行う警告手段をさらに有することを特徴とする請求項に記載の表示制御装置。 The display control apparatus according to claim 9 , further comprising a warning unit that issues a warning when the content data represented by the timeline cannot be copied. 前記コンテンツデータは動画であることを特徴とする請求項9または10に記載の表示制御装置。 The display control apparatus according to claim 9 , wherein the content data is a moving image. 前記コンテンツデータは音声データであることを特徴とする請求項9または10に記載の表示制御装置。 The display control apparatus according to claim 9, wherein the content data is audio data. 前記表示制御装置は、撮像手段を備える撮像装置であることを特徴とする請求項〜12の何れか1項に記載の表示制御装置。 The display control apparatus according to claim 9 , wherein the display control apparatus is an imaging apparatus including an imaging unit. 前記表示制御装置は、携帯電話端末であることを特徴とする請求項〜13の何れか1項に記載の表示制御装置。 The display control apparatus according to claim 9 , wherein the display control apparatus is a mobile phone terminal. 前記判定手段により、単一の前記タイムラインに3箇所のタッチ位置を検出したと判定した場合に、前記制御手段は、
タッチしたまま前記3箇所のうちの1または2箇所のタッチ位置が移動して、前記移動したタッチ位置と移動前のタッチ位置との間の第1の方向の距離が所定距離以上になった場合に、前記タイムラインが表すコンテンツデータを複製して記録媒体に記録するための制御を行い、
タッチしたまま前記3箇所のうちの1または2箇所のタッチ位置が第2の方向に移動した場合に、移動後のタッチ位置の間の距離に応じた数のフレーム画像を前記タイムラインが表すコンテンツデータから抽出し、前記移動後のタッチ位置の間に前記抽出したフレーム画像を表示するように制御することを特徴とする請求項9〜14の何れか1項に記載の表示制御装置。
When it is determined by the determination means that three touch positions are detected in the single timeline , the control means
When one or two of the three touch positions move while touching, and the distance in the first direction between the moved touch position and the touch position before the movement is equal to or greater than a predetermined distance And performing control for copying the content data represented by the timeline and recording it on a recording medium,
Content that the timeline represents the number of frame images according to the distance between the touch positions after the movement when one or two of the three touch positions move in the second direction while being touched The display control apparatus according to claim 9 , wherein the display control apparatus controls the display so that the extracted frame image is displayed between the touch positions after the movement and extracted from the data.
前記3箇所のタッチ位置のうちの1箇所のタッチ位置が移動した場合、前記制御手段は、当該タイムラインが表す動画データ全範囲のうちの一部範囲であって、当該タイムライン上で前記1箇所のタッチ位置によって指定された部分の動画を動画データとして複製するように制御することを特徴とする請求項11に記載の表示制御装置。 When one touch position of the three touch positions moves, the control means is a partial range of the entire moving image data range represented by the timeline, and the display control device according to claim 11, wherein the controller controls so as to replicate the video thus designated partial to the touch position location as moving image data. 前記3箇所のタッチ位置のうちの1箇所のタッチ位置が移動した場合、前記制御手段は、当該タイムラインが表す動画データのうち、当該タイムライン上での前記1箇所のタッチ位置によって指定された位置のフレーム画像を静止画データとして複製するように制御することを特徴とする請求項11に記載の表示制御装置。 If the touch position of one portion in the touch position of the three positions is moved, the control means of the moving image data to which the time line represents, thus designated the touch position of the one point on the time line 12. The display control apparatus according to claim 11 , wherein control is performed so that the image of the frame at the selected position is copied as still image data. 前記表示制御手段は、前記タイムラインとして、動画から抽出された複数のフレーム画像を時系列に並べて表示するように制御することを特徴とする請求項11、16または17に記載の表示制御装置。The display control device according to claim 11, 16 or 17, wherein the display control means controls the timeline to display a plurality of frame images extracted from a moving image in time series. コンテンツデータを表す表示オブジェクトを表示部に表示するよう制御する表示制御ステップと、
前記表示部へのタッチ位置を検出する検出ステップと、
前記表示部に表示された単一の前記表示オブジェクトにおいて2箇所のタッチ位置を前記検出ステップにより検出したか否かを判定する判定ステップと、
前記判定ステップにより、単一の前記表示オブジェクトに2箇所のタッチ位置を検出したと判定した場合に、タッチしたまま前記タッチ位置が第1の方向に移動して、移動後の2箇所のタッチ位置の間の前記第1の方向の距離が所定距離以上になった場合に、前記表示オブジェクトが表すコンテンツデータを複製して記録媒体に記録するための制御を行い、タッチしたまま前記タッチ位置が第2の方向に移動した場合に、移動後の2箇所のタッチ位置の間の距離に応じた数のフレーム画像を前記表示オブジェクトが表すコンテンツデータから抽出し、前記移動後の2箇所のタッチ位置の間に前記抽出したフレーム画像を表示するように制御する制御ステップと
を有することを特徴とする表示制御装置の制御方法。
A display control step for controlling the display object representing the content data to be displayed on the display unit;
A detection step of detecting a touch position on the display unit;
A determination step of determining whether or not two detection positions are detected by the detection step in the single display object displayed on the display unit;
When it is determined in the determination step that two touch positions are detected on the single display object, the touch positions move in the first direction while being touched, and the two touch positions after the movement if the distance of the first direction between exceeds a predetermined distance, have row control for recording on a recording medium by replicating the content data to which the display object is represented, said touch position while touching When moving in the second direction, the number of frame images corresponding to the distance between the two touch positions after the movement is extracted from the content data represented by the display object, and the two touch positions after the movement And a control step of controlling the extracted frame image to be displayed between the control method and the display control device.
コンテンツデータを表す表示オブジェクトを表示部に表示するよう制御する表示制御ステップと、
前記表示部へのタッチ位置を検出する検出ステップと、
前記表示部に表示された単一の前記表示オブジェクトにおいて2箇所のタッチ位置を前記検出ステップにより検出したか否かを判定する判定ステップと、
前記判定ステップにより、単一の前記表示オブジェクトに2箇所のタッチ位置を検出したと判定した場合に、タッチしたまま前記タッチ位置が移動して、移動後の2箇所のタッチ位置の間が所定距離以上になった場合に、前記表示オブジェクトが表すコンテンツデータを複製して記録媒体に記録するための制御を行う制御ステップとを有し、
前記表示制御ステップは、前記検出ステップによって検出されたタッチ位置に表示されている前記表示オブジェクトの表示位置を、前記タッチ位置の移動に追従して変更し、
前記表示部の2箇所がタッチされ、それぞれのタッチ位置でそれぞれ異なる表示オブジェクトがタッチされた場合に、前記2箇所のタッチ位置の距離が、少なくとも一方のタッチ位置の移動により所定値以下となると、前記制御ステップは、前記それぞれ異なる表示オブジェクトが表すコンテンツデータを、前記タッチ位置の移動に追従して変更された表示オブジェクトの表示位置に基づいた順番で結合した単一のコンテンツデータを生成するための制御を行うことを特徴とする表示制御装置の制御方法。
A display control step for controlling the display object representing the content data to be displayed on the display unit;
A detection step of detecting a touch position on the display unit;
A determination step of determining whether or not two detection positions are detected by the detection step in the single display object displayed on the display unit;
When it is determined in the determination step that two touch positions are detected on the single display object, the touch position moves while touching, and a predetermined distance is set between the two touch positions after the movement. if it becomes more than, have a control step of performing control for recording on a recording medium by replicating the content data to which the display object is represented,
The display control step changes the display position of the display object displayed at the touch position detected by the detection step, following the movement of the touch position,
When two places of the display unit are touched and different display objects are touched at the respective touch positions, the distance between the two touch positions becomes a predetermined value or less due to the movement of at least one of the touch positions. The control step generates single content data in which the content data represented by the different display objects is combined in an order based on the display position of the display object changed following the movement of the touch position. A control method for a display control device, characterized by performing control.
コンテンツデータのタイムラインを表示部に表示するよう制御する表示制御ステップと、
前記表示部へのタッチ位置を検出する検出ステップと、
前記表示部に表示された単一の前記タイムラインにおいて3箇所のタッチ位置を前記検出ステップにより検出したか否かを判定する判定ステップと、
前記判定ステップにより、単一の前記タイムラインに3箇所のタッチ位置を検出したと判定した場合に、タッチしたまま前記3箇所のうちの箇所のタッチ位置が移動して、前記移動したタッチ位置と移動前のタッチ位置との間が所定距離以上になった場合に、当該タイムラインが表すコンテンツデータ全範囲のうちの一部範囲であって、当該タイムライン上で、前記移動した2箇所のタッチ位置に指定された範囲のコンテンツデータを複製して記録媒体に記録するための制御を行う制御ステップと
を有することを特徴とする表示制御装置の制御方法。
A display control step for controlling the timeline of the content data to be displayed on the display unit;
A detection step of detecting a touch position on the display unit;
A determination step of determining whether or not three touch positions are detected by the detection step in the single timeline displayed on the display unit;
When it is determined by the determination step that three touch positions are detected in the single timeline , the two touch positions of the three positions move while being touched, and the moved touch positions And the touch position before the movement is a predetermined distance or more, and is a partial range of the entire content data range represented by the timeline, and the two moved positions on the timeline . And a control step for performing control for duplicating the content data in the range specified by the touch position and recording the content data on a recording medium.
コンピュータを、請求項1〜18の何れか1項に記載の表示制御装置の各手段として機能させるためのプログラム。 Program for causing a computer to function as each unit of the display control device according to any one of claims 1 to 18. コンピュータを、請求項1〜18の何れか1項に記載の表示制御装置の各手段として機能させるためのプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium having recorded thereon a program for causing the computer to function as each unit of the display control device according to any one of claims 1 to 18 .
JP2010036398A 2010-02-22 2010-02-22 Display control device and control method of display control device Expired - Fee Related JP5534858B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010036398A JP5534858B2 (en) 2010-02-22 2010-02-22 Display control device and control method of display control device
US13/023,995 US8717317B2 (en) 2010-02-22 2011-02-09 Display control device and method for controlling display on touch panel, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010036398A JP5534858B2 (en) 2010-02-22 2010-02-22 Display control device and control method of display control device

Publications (3)

Publication Number Publication Date
JP2011170785A JP2011170785A (en) 2011-09-01
JP2011170785A5 JP2011170785A5 (en) 2013-04-04
JP5534858B2 true JP5534858B2 (en) 2014-07-02

Family

ID=44684815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010036398A Expired - Fee Related JP5534858B2 (en) 2010-02-22 2010-02-22 Display control device and control method of display control device

Country Status (1)

Country Link
JP (1) JP5534858B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9212572B2 (en) 2009-12-21 2015-12-15 Hitachi Powdered Metals Co., Ltd. Sintered valve guide and production method therefor

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5790380B2 (en) * 2011-09-28 2015-10-07 株式会社Jvcケンウッド Electronic device, control method of electronic device, and program
JP5697262B2 (en) * 2012-04-06 2015-04-08 京セラドキュメントソリューションズ株式会社 Display input device and image forming apparatus
JP6347701B2 (en) * 2014-09-05 2018-06-27 シャープ株式会社 Information processing apparatus, information processing method, and program
JP5866040B2 (en) * 2015-01-29 2016-02-17 京セラドキュメントソリューションズ株式会社 Display input device and image forming apparatus
EP3627831A4 (en) * 2017-05-18 2020-06-03 Sony Corporation Information processing device, information processing method and information processing program
JP6715361B2 (en) * 2019-02-07 2020-07-01 株式会社スクウェア・エニックス Information processing device, information processing method, and game device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3858310B2 (en) * 1996-10-01 2006-12-13 株式会社ニコン Source file editing device
JP2003333537A (en) * 2002-05-10 2003-11-21 Canon Inc Image reproducing apparatus and image reproducing method
JP2005086218A (en) * 2003-09-04 2005-03-31 Ntt Comware Corp Method, apparatus and program for processing animation
JP2005149279A (en) * 2003-11-18 2005-06-09 Matsushita Electric Ind Co Ltd Information processor and program
US7728821B2 (en) * 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
JP4356762B2 (en) * 2007-04-12 2009-11-04 ソニー株式会社 Information presenting apparatus, information presenting method, and computer program
US8584048B2 (en) * 2008-05-29 2013-11-12 Telcordia Technologies, Inc. Method and system for multi-touch-based browsing of media summarizations on a handheld device
JP5164675B2 (en) * 2008-06-04 2013-03-21 キヤノン株式会社 User interface control method, information processing apparatus, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9212572B2 (en) 2009-12-21 2015-12-15 Hitachi Powdered Metals Co., Ltd. Sintered valve guide and production method therefor

Also Published As

Publication number Publication date
JP2011170785A (en) 2011-09-01

Similar Documents

Publication Publication Date Title
US8717317B2 (en) Display control device and method for controlling display on touch panel, and storage medium
JP5534858B2 (en) Display control device and control method of display control device
JP2011170796A (en) Display control device and display control method
JP4795193B2 (en) Image display apparatus, control method therefor, and program
JP5701017B2 (en) Movie playback apparatus, movie playback method, computer program, and storage medium
JP5534857B2 (en) Display control device and control method of display control device
JP2014132748A (en) Reproduction control device, reproduction control method, and storage medium
JP2006279118A (en) Image reproducing device and program
JP5854826B2 (en) Image browsing apparatus, control method thereof, and recording medium
JP2007233797A (en) Preview reproduction method and device, program and medium
JP2019022186A (en) Image processing system, imaging apparatus, image processing method, and program
JP2011078139A (en) Image reproduction apparatus, music processing program, and image reproduction program
JP5707567B2 (en) Image processing apparatus and image processing method
JP2009055272A (en) Image processing apparatus, image processing method, and image processing program
JP7150590B2 (en) Electronics
CN113261302B (en) Electronic device
JP7150591B2 (en) Electronics
JP5762455B2 (en) Display control device, display control device control method, program, and recording medium
JP2008017366A (en) Information processor, and information processing method
JP4422543B2 (en) Image display device and image display method
JP2009225354A (en) Slide reproducer, slide reproduction system, and slide reproduction program
JP4366487B2 (en) Image processing apparatus and program
JP4562202B2 (en) Capture image recording apparatus and capture image recording program
JP5430273B2 (en) Image reproduction apparatus, attribute change processing method, and program
JP6877105B2 (en) Image processing equipment, control methods, and programs

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140422

R151 Written notification of patent or utility model registration

Ref document number: 5534858

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees