JP2013175214A - Reproducing device and reproducing method - Google Patents

Reproducing device and reproducing method Download PDF

Info

Publication number
JP2013175214A
JP2013175214A JP2013084335A JP2013084335A JP2013175214A JP 2013175214 A JP2013175214 A JP 2013175214A JP 2013084335 A JP2013084335 A JP 2013084335A JP 2013084335 A JP2013084335 A JP 2013084335A JP 2013175214 A JP2013175214 A JP 2013175214A
Authority
JP
Japan
Prior art keywords
touch sensor
drag operation
touch
amount
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013084335A
Other languages
Japanese (ja)
Other versions
JP5475905B2 (en
Inventor
Keishiro Nakamoto
経史朗 中元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013084335A priority Critical patent/JP5475905B2/en
Publication of JP2013175214A publication Critical patent/JP2013175214A/en
Application granted granted Critical
Publication of JP5475905B2 publication Critical patent/JP5475905B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily retrieve a desired scene from a series of images without lowering visibility of the images.SOLUTION: In a display device 1, a touch sensor 106 detects an instruction for specifying one point inside a display area including an area to display images by a monitor 101. A CPU 102 set reproducing speed of the images corresponding to coordinates inside the display area of the specified one point. Also, the CPU 102 detects an instruction for moving the specified one point, and makes the monitor 101 reproduce the images by the number of frames according to the moving amount of the specified one point at the set reproducing speed.

Description

本発明は、再生装置および再生方法に関する。   The present invention relates to a playback device and a playback method.

近年のパーソナルコンピュータ、携帯型の映像撮影装置、デジタルスチルカメラなどは、大容量・長時間な動画像の表示再生が可能な表示装置である。この表示装置では、動画像の上または下にスライドバー、もしくは早送り・巻き戻しボタンなどのコントロールアイテムが画面上に配置され、このコントロールアイテムをユーザが操作することで動画像のシーン検索が行われている。   Recent personal computers, portable video photographing devices, digital still cameras, and the like are display devices capable of displaying and reproducing large-capacity and long-time moving images. In this display device, control items such as a slide bar or a fast forward / rewind button are arranged on the screen above or below the moving image, and a scene search of the moving image is performed by the user operating the control item. ing.

しかしながら、長時間な動画像からスライドバーを用いてシーン検索を行う場合は、スライドバーを1ドット動かしただけで遥か先のフレームまで飛んでしまうことがあり、所望のシーンを検索する際の操作性が悪くなることがあった。長時間な動画像から所望のシーンを検索する際の操作性を向上させる技術としては、特許文献1、2が知られている。   However, when a scene search is performed using a slide bar from a long-time moving image, the slide bar may jump to a far frame just by moving the dot by one dot. Sexuality sometimes worsened. Patent Documents 1 and 2 are known as techniques for improving operability when searching for a desired scene from a long-time moving image.

特許文献1には、メインとなるスライドバーの隣に分解能の大きなサブスライドバーを出現させることで、所望のシーンを検索する際の操作性を向上させる技術が開示されている。また、特許文献2には、任意に定めた原点からのマウスポインタの絶対座標値で検索速度を変化させることで、所望のシーンを検索する際の操作性を向上させる技術が開示されている。   Patent Document 1 discloses a technique for improving operability when searching for a desired scene by causing a sub-slide bar having a high resolution to appear next to a main slide bar. Patent Document 2 discloses a technique for improving the operability when searching for a desired scene by changing the search speed with the absolute coordinate value of the mouse pointer from an arbitrarily defined origin.

特開2001−202176号公報JP 2001-202176 A 特開平5−236418号公報JP-A-5-236418

しかしながら、特許文献1に記載の方法では、動画像を再生する領域の他にサブスライドバーを表示するための領域を用意する必要があるため、動画像を再生する領域が狭くなり、所望のシーン検索を行う際の動画像の視認性が低下する虞があった。また、特許文献2に記載の方法では、所望のシーンが見つかった時の検索操作を止めるまでのタイムラグによって所望のシーンより先に進んでしまうことがあり、さらなる操作性の向上が求められていた。   However, in the method described in Patent Document 1, since it is necessary to prepare an area for displaying a sub-slide bar in addition to an area for reproducing a moving image, an area for reproducing a moving image becomes narrow, and a desired scene is displayed. There is a possibility that the visibility of a moving image at the time of searching is lowered. Further, in the method described in Patent Document 2, there is a case in which the time lag until the search operation is stopped when a desired scene is found may advance ahead of the desired scene, and further improvement in operability has been demanded. .

本発明は、このような従来技術の課題を少なくとも1つ解決することを目的としてなされたものである。本発明は、画像の視認性を低下させることなく、一連の画像から所望のシーンを容易に検索可能とする再生装置および再生方法の提供を目的とする。   The present invention has been made for the purpose of solving at least one of the problems of the prior art. An object of the present invention is to provide a playback apparatus and a playback method that can easily search for a desired scene from a series of images without reducing the visibility of the images.

上記目的は、タッチセンサを有する表示部と、一連の画像データを再生し、前記表示部に表示する表示制御手段と、前記タッチセンサに対するタッチ操作を検出する検出手段と、前記一連の画像データを前記表示部に表示しているときに、前記検出手段がドラッグ操作を検出した場合に、前記ドラッグ操作の方向および移動量に応じて、前記一連の画像データの順方向送り処理又は逆方向送り処理を行う処理手段とを有し、前記処理手段は、前記ドラッグ操作において、前記タッチセンサの縦方向のタッチ位置に応じて、前記タッチセンサの横方向の移動量に対する前記一連の画像データの送り量を異ならしめており、前記ドラッグ操作が前記タッチセンサの斜め方向に行われた場合には、前記処理手段は、前記ドラッグ操作の途中に、前記縦方向のタッチ位置に応じて、前記横方向の移動量に対する前記一連の画像データの送り量を変更することを特徴とする再生装置によって達成される。   The object is to display a display unit having a touch sensor, display control means for reproducing and displaying a series of image data, display means for detecting a touch operation on the touch sensor, and the series of image data. When the detection unit detects a drag operation while displaying on the display unit, the series of image data forward feed processing or reverse feed processing is performed according to the direction and movement amount of the drag operation. And a processing unit that performs the drag operation, the processing unit sends the series of image data with respect to a lateral movement amount of the touch sensor according to a vertical touch position of the touch sensor in the drag operation. And when the drag operation is performed in an oblique direction of the touch sensor, the processing means performs the drag operation in the middle of the drag operation. Depending on the direction of the touch position is achieved by the reproducing apparatus and changes the feeding amount of the series of image data with respect to the amount of movement of the transverse direction.

また、上記目的は、タッチセンサを有する表示部を備える再生装置による再生方法であって、前記再生装置の表示制御手段が、一連の画像データを再生し、前記表示部に表示する表示制御工程と、前記再生装置の検出手段が、前記タッチセンサに対するタッチ操作を検出する検出工程と、前記一連の画像データを前記表示部に表示しているときに、前記検出工程でドラッグ操作を検出した場合に、前記再生装置の処理手段が、前記ドラッグ操作の方向および移動量に応じて、前記一連の画像データの順方向送り処理又は逆方向送り処理を行う処理工程とを有し、前記処理工程では、前記ドラッグ操作において、前記タッチセンサの縦方向のタッチ位置に応じて、前記タッチセンサの横方向の移動量に対する前記一連の画像データの送り量を異ならしめており、前記ドラッグ操作が前記タッチセンサの斜め方向に行われた場合には、前記処理工程では、前記ドラッグ操作の途中に、前記縦方向のタッチ位置に応じて、前記横方向の移動量に対する前記一連の画像データの送り量を変更することを特徴とする再生方法によっても達成される。   Further, the above object is a playback method by a playback device including a display unit having a touch sensor, wherein the display control unit of the playback device plays back a series of image data and displays it on the display unit. When the detection unit of the playback device detects a drag operation in the detection step while detecting the touch operation on the touch sensor and displaying the series of image data on the display unit. The processing means of the playback device has a processing step for performing forward feed processing or reverse feed processing of the series of image data in accordance with the direction and movement amount of the drag operation, and in the processing step, In the drag operation, the feed amount of the series of image data with respect to the lateral movement amount of the touch sensor differs according to the vertical touch position of the touch sensor. In the case where the drag operation is performed in an oblique direction of the touch sensor, in the processing step, in the middle of the drag operation, the lateral movement amount according to the vertical touch position. It is also achieved by a reproduction method characterized by changing the feed amount of the series of image data.

本発明によれば、画像の視認性を低下させることなく、一連の画像から所望のシーンを容易に検索可能とすることができる。   According to the present invention, it is possible to easily search for a desired scene from a series of images without reducing the visibility of the images.

[第1の実施形態]
以下、図面を参照して、本発明の好適かつ例示的な実施形態について詳細に説明する。第1の実施形態では、動画像の再生が可能な携帯型の表示装置を例示して説明する。図1は、第1の実施形態に係る表示装置1のハードウエアの構成を示したブロック図である。
[First Embodiment]
Hereinafter, preferred and exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the first embodiment, a portable display device capable of reproducing moving images will be described as an example. FIG. 1 is a block diagram illustrating a hardware configuration of the display device 1 according to the first embodiment.

図1に示すように、表示装置1は、モニタ101、CPU102、RAM103、ROM104、ボタン105、タッチセンサ106、オーディオ出力部107、記憶部108を有する構成である。表示装置1において、上記各部は、バス109によって相互に接続されている。なお、CPUはCentral Processing Unit、RAMはRandom Access Memory、ROMはRead Only Memoryの略語である。   As illustrated in FIG. 1, the display device 1 includes a monitor 101, a CPU 102, a RAM 103, a ROM 104, a button 105, a touch sensor 106, an audio output unit 107, and a storage unit 108. In the display device 1, the respective units are connected to each other by a bus 109. CPU stands for Central Processing Unit, RAM stands for Random Access Memory, and ROM stands for Read Only Memory.

モニタ101は、LCD(Liquid Crystal Display)などであり、CPU102の制御の下で入力された映像信号に応じた映像出力を行う。ROM104には各種アプリケーションプログラムが格納されており、CPU102は、ROM104に格納されたアプリケーションプログラムを読み出して実行することで表示装置1の動作を中央制御する。   The monitor 101 is an LCD (Liquid Crystal Display) or the like, and performs video output according to the video signal input under the control of the CPU 102. Various application programs are stored in the ROM 104, and the CPU 102 centrally controls the operation of the display device 1 by reading and executing the application programs stored in the ROM 104.

ボタン105は、ユーザの操作入力を受け付けて、その操作入力に応じた信号をCPU102に出力する。具体的には、ボタン105は、ユーザが押下可能なボタンであり、このボタンの押下操作に応じた信号をCPU102へ出力する。CPU102では、ボタン105の押下操作に応じた信号により割り込みが発生し、ボタン105の押下状態を検出することができる。   The button 105 accepts a user operation input and outputs a signal corresponding to the operation input to the CPU 102. Specifically, the button 105 is a button that can be pressed by the user, and outputs a signal corresponding to the pressing operation of the button to the CPU 102. In the CPU 102, an interrupt is generated by a signal corresponding to the pressing operation of the button 105, and the pressing state of the button 105 can be detected.

検出手段としてのタッチセンサ106は、接触感知可能な矩形の領域(感知領域)を持ち、ユーザが感知領域にタッチまたはドラッグした時点で、その領域における接触位置を示す信号をCPU102へ出力するセンサである。例えば、タッチセンサ106は、感知領域の表面に透明電極が格子状に配置された感圧式(抵抗膜圧式)のセンサであってよい。CPU102では、タッチセンサ106の感知領域でタッチ又はドラッグされた時点で割り込みが発生し、感知領域における接触位置を示す座標を検出することができる。表示装置1では、モニタ101の表示領域内の一点の指示が、タッチセンサ106の接触位置を示す座標に応じてCPU102により検出される。
後述するように、本実施形態では、タッチセンサ106に対するドラッグ操作、より具体的には表示されている画像をスクロールやドラッグする操作を、表示制御に係る特定操作として認識し、特定操作に応答して各種の表示制御を行う。
The touch sensor 106 as a detection means has a rectangular area (sensing area) where contact can be sensed, and outputs a signal indicating the contact position in the area to the CPU 102 when the user touches or drags the sensing area. is there. For example, the touch sensor 106 may be a pressure-sensitive (resistive film pressure) sensor in which transparent electrodes are arranged in a grid pattern on the surface of the sensing region. In the CPU 102, an interrupt is generated when touching or dragging in the sensing area of the touch sensor 106, and coordinates indicating a contact position in the sensing area can be detected. In the display device 1, the instruction of one point in the display area of the monitor 101 is detected by the CPU 102 according to the coordinates indicating the contact position of the touch sensor 106.
As will be described later, in this embodiment, a drag operation on the touch sensor 106, more specifically, an operation of scrolling or dragging a displayed image is recognized as a specific operation related to display control, and responds to the specific operation. Various display controls.

オーディオ出力部107は、イヤホンジャックやスピーカなどであり、CPU102の指示に応じて入力された音声信号に基づいた音声出力を行う。記憶部108は、半導体メモリやHDD(Hard Disk Drive)などであり、アプリケーションプログラム、各種設定データ、動画像データ、静止画像データなどを記憶する。   The audio output unit 107 is an earphone jack, a speaker, or the like, and performs audio output based on an audio signal input according to an instruction from the CPU 102. The storage unit 108 is a semiconductor memory, HDD (Hard Disk Drive), or the like, and stores application programs, various setting data, moving image data, still image data, and the like.

例えば、ROM104には動画再生アプリケーションプログラムが格納されている。表示制御手段としてのCPU102はその動画再生アプリケーションプログラムを実行することで、表示装置1における動画像の再生を制御する。具体的には、CPU102は、動画再生アプリケーションプログラムに従って、記憶部108から読み出した動画データをRAM103の作業領域に展開し、復号化処理や変換処理等のデータ処理を行って、処理後の動画像をモニタ101の表示領域内に映し出す。また、CPU102は、動画データとセットで記憶部108に記憶されている音声データを、同様にRAM103の作業領域に展開して所定の処理を行った後にオーディオ出力部107へ出力する。このようにして、表示装置1では、記憶部108に格納された動画表示と、その動画に対応した音声再生を行う。なお、表示装置1において、再生すべき動画の選択指示や、動画再生時における操作指示は、ボタン105やタッチセンサ106を介してユーザから受け付けられる。   For example, the ROM 104 stores a moving image reproduction application program. The CPU 102 as the display control means controls the reproduction of moving images on the display device 1 by executing the moving image reproduction application program. Specifically, the CPU 102 expands the moving image data read from the storage unit 108 in the work area of the RAM 103 according to the moving image reproduction application program, performs data processing such as decryption processing and conversion processing, and then processes the processed moving image. Is displayed in the display area of the monitor 101. Further, the CPU 102 similarly develops the audio data stored in the storage unit 108 as a set together with the moving image data in the work area of the RAM 103, performs predetermined processing, and then outputs it to the audio output unit 107. In this way, the display device 1 performs the moving image display stored in the storage unit 108 and the sound reproduction corresponding to the moving image. In the display device 1, an instruction to select a moving image to be reproduced and an operation instruction at the time of reproducing the moving image are received from the user via the button 105 or the touch sensor 106.

図2は、表示装置1の正面外観を例示する概念図である。図2に示すように、表示装置1において、図1に例示した各ブロックは筐体201に格納されている。表示装置1の正面側である筐体201の前面には、モニタ101、ボタン105、タッチセンサ106が配置されている。また、筐体201の上面にはイヤホンジャック204が配置されている。   FIG. 2 is a conceptual diagram illustrating the front appearance of the display device 1. As shown in FIG. 2, in the display device 1, each block illustrated in FIG. 1 is stored in a housing 201. A monitor 101, buttons 105, and a touch sensor 106 are arranged on the front surface of the housing 201 that is the front side of the display device 1. In addition, an earphone jack 204 is disposed on the upper surface of the housing 201.

また、筐体201において、モニタ101の画面領域にはタッチセンサ106が実装されている。したがって、表示装置1では、モニタ101の画面領域の任意の場所をタッチすることで、タッチされた画面領域上の座標を取得して表示領域内の一点の指示を検出可能となっている。また、表示装置1では、イヤホンジャック204にイヤホン(図示しない)を接続することで、イヤホンからの音声出力を行うことが可能となっている。   In the housing 201, the touch sensor 106 is mounted on the screen area of the monitor 101. Therefore, in the display device 1, by touching an arbitrary place in the screen area of the monitor 101, the coordinates on the touched screen area can be acquired and an instruction of one point in the display area can be detected. Further, the display device 1 can output sound from the earphone by connecting an earphone (not shown) to the earphone jack 204.

次に、表示装置1の動画再生プレイヤとしての動作概要について説明する。図3に示すように、表示装置1は、前述したCPU102が動画再生アプリケーションプログラムを実行することで、サムネイル一覧より選択された任意の動画像をモニタ101に再生する動画再生プレイヤとしての機能を有する。例えば、表示装置1は、記憶部108に記憶されている動画像のサムネイル一覧をモニタ101に表示し、ユーザからの選択指示をタッチセンサ106などで受け付けて、選択された動画像をモニタ101に表示する。   Next, an outline of the operation of the display device 1 as a moving image playback player will be described. As illustrated in FIG. 3, the display device 1 has a function as a moving image reproduction player that reproduces an arbitrary moving image selected from the thumbnail list on the monitor 101 when the CPU 102 described above executes the moving image reproduction application program. . For example, the display device 1 displays a thumbnail list of moving images stored in the storage unit 108 on the monitor 101, receives a selection instruction from the user by the touch sensor 106, and the selected moving image is displayed on the monitor 101. indicate.

動画再生プレイヤは、サムネイル一覧を表示して再生すべき動画像の選択を受け付けるサムネイルモード、再生モード、再生位置をコントロールするための指示を受け付けるコントロールモードなどの動作モードで動作する。以下では、動画再生プレイヤの動作モードについて詳細に説明する。   The moving image playback player operates in an operation mode such as a thumbnail mode for displaying a thumbnail list and receiving a selection of a moving image to be played back, a playback mode, and a control mode for receiving an instruction for controlling a playback position. Hereinafter, the operation mode of the video player will be described in detail.

図4は、動画再生プレイヤの動作モードの遷移を例示する概念図である。図4に示すように、動画再生プレイヤは、サムネイルモード、再生モード、コントロールパネル表示モード、ガイド表示モードの動作モードで動作する。   FIG. 4 is a conceptual diagram illustrating the transition of the operation mode of the video player. As shown in FIG. 4, the moving image playback player operates in the operation modes of the thumbnail mode, the playback mode, the control panel display mode, and the guide display mode.

サムネイルモードでは、記憶部108に記憶されている単一、若しくは複数の動画像をモニタ101にサムネイル表示する。サムネイルモードでは、タッチセンサ106を介して任意の動画像の選択指示をユーザから受け付ける。サムネイルモードで動画像が選択された場合は、選択された動画像を再生する再生モードに移行する。   In the thumbnail mode, a single or a plurality of moving images stored in the storage unit 108 are displayed as thumbnails on the monitor 101. In the thumbnail mode, an instruction to select an arbitrary moving image is received from the user via the touch sensor 106. When a moving image is selected in the thumbnail mode, a transition is made to a reproduction mode for reproducing the selected moving image.

再生モードでは、サムネイルモードで選択された動画像を記憶部108に表示する。表示モードでは、ユーザがタッチセンサ106をタップすることで、コントロールパネル表示モードに移行する。また、再生モードでは、ユーザがタッチセンサ106をタッチしてから指を放さずにドラッグすることでガイド表示モードに移行する。ガイド表示モードの詳細は後述する。   In the playback mode, the moving image selected in the thumbnail mode is displayed on the storage unit 108. In the display mode, when the user taps the touch sensor 106, the control panel display mode is entered. In the reproduction mode, the user touches the touch sensor 106 and then drags without releasing his / her finger to shift to the guide display mode. Details of the guide display mode will be described later.

コントロールパネル表示モードでは、動画像の再生位置を指示するスライドバーに加えて、再生、停止、一時停止、早送り、巻き戻しの各ボタンからなるコントロールアイテムが配置されたコントロールパネルを記憶部108に表示する。コントロールパネル表示モードでは、ユーザがタッチセンサ106をタッチした際のタッチ位置を検出することで、タッチ位置に対応したコントロールアイテムの操作指示を受け付けて、記憶部108に表示する動画像の再生をコントロールする。   In the control panel display mode, in addition to a slide bar that indicates the playback position of a moving image, a control panel in which control items including play, stop, pause, fast forward, and rewind buttons are arranged is displayed on the storage unit 108. To do. In the control panel display mode, by detecting a touch position when the user touches the touch sensor 106, an operation instruction for a control item corresponding to the touch position is received, and playback of a moving image displayed on the storage unit 108 is controlled. To do.

例えば、コントロールパネル表示モード中において、記憶部108の画面上の早送りボタンが表示されている領域がタッチされた場合、動画像が早送り再生される。同様に、巻き戻しボタンがタッチされた場合、動画像が巻き戻し再生される。また、一時停止ボタンがタップされた場合は、動画像の再生が一時停止される。この一時停止状態でさらに一時停止ボタンがタップされた場合は、一時停止状態が解除されて動画像の再生が再開される。また、再生ボタンがタップされた場合は再生モードに、停止ボタンがタップされた場合はサムネイルモードに移行する。   For example, in the control panel display mode, when an area on the screen of the storage unit 108 where the fast-forward button is displayed is touched, the moving image is played back in fast-forward. Similarly, when the rewind button is touched, the moving image is rewound and reproduced. When the pause button is tapped, the playback of the moving image is paused. When the pause button is further tapped in the pause state, the pause state is canceled and the reproduction of the moving image is resumed. When the playback button is tapped, the playback mode is entered. When the stop button is tapped, the thumbnail mode is entered.

ガイド表示モード中において、モニタ101から指を離してタッチセンサ106によるタッチ位置の検出が終了した時点から一定時間経過した場合は再生モードに移行する。なお、ガイド表示モード中において、モニタ101から指を離して一定時間経過しないうちに、再度モニタ101をタッチしてドラッグした場合は、ガイド表示モードが継続する。   In the guide display mode, when a predetermined time has elapsed since the detection of the touch position by the touch sensor 106 after the finger was removed from the monitor 101, the mode is changed to the reproduction mode. In the guide display mode, if the monitor 101 is touched and dragged again within a predetermined time after the finger is removed from the monitor 101, the guide display mode continues.

以下にガイド表示モードについて説明する。動画像の再生中又は一時停止中にモニタ101の画面領域上をタッチして、指を離さずにドラッグした場合、ガイド表示モードに移行する。ガイド表示モードでは、図5に示すように、モニタ101の画面上の動画像を表示する領域を含む表示領域上において半透明色のガイド画像501が重畳表示される。このガイド画像501が重畳表示されることで、モニタ101の画面上には、モニタ101の画面領域を複数のゾーンに分けるガイドラインと、各ゾーンに割り当てられたスケール値とが表示される。このスケール値は、画像の送り操作に対してどのくらいの時間、又はどのくらいのフレーム数を早送り/逆戻しするのかを決める感度を示している。
つまりスケール値とは、同一の操作もしくは操作量でも、その操作に対する画像の早送り量または、巻き戻し量を異ならしめる為の感度ということが出来る。ここで、早送り量、巻き戻し量は例えばフレーム数(又は画像の枚数)や、時間の経過量である。
より詳しく言えば、このスケール値は、動画像の再生速度であり、例えばタッチセンサ106における一点を移動させる指示(ドラッグ)に対して、単位移動量あたりに飛び越す動画像のフレーム数又は時間を示す値である。なお、動画像の再生フレームは、このスケール値(再生速度)と、ドラッグ時の表示ポインタの移動量とに基づいて制御されるが、その詳細については後述する。
The guide display mode will be described below. When the screen area of the monitor 101 is touched and dragged without releasing the finger while the moving image is being reproduced or paused, the mode is shifted to the guide display mode. In the guide display mode, as shown in FIG. 5, a translucent guide image 501 is superimposed and displayed on a display area including an area for displaying a moving image on the screen of the monitor 101. By displaying the guide image 501 in a superimposed manner, a guideline for dividing the screen area of the monitor 101 into a plurality of zones and a scale value assigned to each zone are displayed on the screen of the monitor 101. This scale value indicates the sensitivity that determines how much time or how many frames to fast forward / reverse the image feed operation.
That is, the scale value can be said to be a sensitivity for differentiating the fast-forward amount or the rewind amount of the image for the same operation or operation amount. Here, the fast-forward amount and the rewind amount are, for example, the number of frames (or the number of images) and the elapsed time.
More specifically, this scale value is a moving image playback speed, and indicates the number of frames or time of a moving image that jumps per unit moving amount in response to an instruction (drag) for moving one point in the touch sensor 106, for example. Value. The playback frame of the moving image is controlled based on the scale value (playback speed) and the amount of movement of the display pointer at the time of dragging, details of which will be described later.

図5の例では、画面領域の下から上まで段階的に帯状のゾーンが積み重なるようになっている。具体的には、画面領域の縦方向の座標に対して分解能が非線形もしくは線形に変化するようにゾーンが分かれている。各ゾーンには、画面領域の下から順に、「×1/3」、「×1/10」、「×1/50」、「×1/100」、「×1/300」、「×1/1000」のスケール値が割り当てられている。なお、割り当てられるスケール値の順番は、画面領域の上から順に、「×1/3」、「×1/10」、「×1/50」、「×1/100」、「×1/300」、「×1/1000」であってもよい。   In the example of FIG. 5, the belt-like zones are stacked in stages from the bottom to the top of the screen area. Specifically, the zones are divided so that the resolution changes nonlinearly or linearly with respect to the vertical coordinates of the screen area. Each zone has “× 1/3”, “× 1/10”, “× 1/50”, “× 1/100”, “× 1/300”, “× 1” in order from the bottom of the screen area. A scale value of “/ 1000” is assigned. The order of the assigned scale values is “× 1/3”, “× 1/10”, “× 1/50”, “× 1/100”, “× 1/300” in order from the top of the screen area. Or “× 1/1000”.

このガイド表示モードでは、帯状のゾーンに沿って右方向にドラッグすると動画像を順方向送り(早送り)し、左方向にドラッグすると動画像を逆方向送り(巻き戻し)する。また、早送り・巻き戻し中は、次の式(1)で示すように、動画像の総再生時間とドラッグ時の表示ポインタの移動量に各ゾーンに割り当てられたスケール値を乗じたものが早送り・巻き戻しによる再生フレームの時間変化量になる。
式(1):フレーム移動量(時間)=動画像の総再生時間×スケール値×ドラッグ移動量
In this guide display mode, the moving image is forward-forwarded (fast-forwarded) when dragged to the right along the belt-shaped zone, and the moving image is fed backward (rewinded) by dragging to the left. Also, during fast forward / rewind, as shown in the following equation (1), the total playback time of moving images and the amount of movement of the display pointer during dragging are multiplied by the scale value assigned to each zone.・ This is the amount of time change of the playback frame due to rewinding.
Expression (1): Frame movement amount (time) = total moving image playback time × scale value × drag movement amount

ここで、式(1)について以下に詳細に説明する。なお、動画像の総再生時間の単位は秒であり、ドラッグの移動量は画面の左端から右端までドラッグした場合を1とする。   Here, Formula (1) will be described in detail below. The unit of the total playback time of moving images is seconds, and the amount of drag movement is 1 when dragging from the left end to the right end of the screen.

例えば、総再生時間が120分(120×60=7200秒)の動画像を例示して説明する。図6に示すように、ゾーン601は、「×1/3」のスケール値が割り当てられている。したがって、ゾーン601は、120分(7200秒)×1/3(スケール値)×1(ドラッグ移動量)=40分(2400秒)分のフレームを移動させるスライダとして機能する。   For example, a moving image having a total reproduction time of 120 minutes (120 × 60 = 7200 seconds) will be described as an example. As shown in FIG. 6, a scale value “× 1/3” is assigned to the zone 601. Therefore, the zone 601 functions as a slider that moves a frame of 120 minutes (7200 seconds) × 1/3 (scale value) × 1 (drag movement amount) = 40 minutes (2400 seconds).

同様に、ゾーン602は、「×1/300」のスケール値が割り当てられている。従って、ゾーン602は、120分(7200秒)×1/300(スケール値)×1(ドラッグ移動量)=24秒分のフレームを移動させるスライダとして機能する。   Similarly, the zone 602 is assigned a scale value of “× 1/300”. Accordingly, the zone 602 functions as a slider that moves a frame of 120 minutes (7200 seconds) × 1/300 (scale value) × 1 (drag movement amount) = 24 seconds.

ここで、式(1)におけるスケール値の決定方法について詳細に説明する。図7に示すように、タッチセンサ106の感知領域は、左上の角を原点として右方向にX座標、下方向にY座標が定められているものとする。また、タッチセンサ106の感知領域は、X座標の方向に800ピクセル、Y座標の方向に600ピクセルの解像度を持つものとする。   Here, the determination method of the scale value in Formula (1) is demonstrated in detail. As shown in FIG. 7, it is assumed that the sensing area of the touch sensor 106 has an X coordinate in the right direction and a Y coordinate in the downward direction with the upper left corner as the origin. The sensing area of the touch sensor 106 has a resolution of 800 pixels in the X coordinate direction and 600 pixels in the Y coordinate direction.

図7に示すように、タッチされたポイント701のY座標が116ピクセルであれば、画面領域のY座標の方向で6等分したゾーンのうち、上から2番目のゾーン(101〜200ピクセルまでのゾーン)がタッチされたと認識される。すなわち、モニタ101の表示領域における第1の方向としてのY座標の方向において、段階的にスケール値を設定する各ゾーンの中で、2番目のゾーンで表示ポインタが操作されたと認識される。そして、このゾーンに割り当てられた「×1/300」のスケール値がスライダが持つカレントスケールとなる。   As shown in FIG. 7, if the Y coordinate of the touched point 701 is 116 pixels, the second zone from the top (from 101 to 200 pixels) among the zones equally divided into 6 in the direction of the Y coordinate of the screen area. Is recognized as being touched. That is, in the direction of the Y coordinate as the first direction in the display area of the monitor 101, it is recognized that the display pointer is operated in the second zone among the zones in which the scale values are set stepwise. The scale value “× 1/300” assigned to this zone is the current scale of the slider.

図8は、画面領域がX座標の方向に800ピクセル、Y座標の方向に600ピクセルの場合の、スケール値の算出方法を示すフローチャートである。図8に示すように、CPU102は、タッチセンサ106にタッチされたポイントのY座標の値を取得して、y_beginに記憶する(S101)。なお、y_beginは、タッチされたY座標の値を記憶するため、RAM103上の作業領域に確保された変数の名称である。   FIG. 8 is a flowchart showing a method for calculating a scale value when the screen area is 800 pixels in the X coordinate direction and 600 pixels in the Y coordinate direction. As shown in FIG. 8, the CPU 102 acquires the value of the Y coordinate of the point touched by the touch sensor 106 and stores it in y_begin (S101). Note that y_begin is the name of a variable secured in the work area on the RAM 103 in order to store the touched Y coordinate value.

次いで、CPU102は、モニタ101の画面領域の縦ピクセルサイズから、このサイズを6等分して、各ゾーンの領域を割り当てる。なお、本実施形態では、Y座標の方向に600ピクセルであるため、1〜100、101〜200、201〜300、301〜400、401〜500、501〜600ピクセルがそれぞれのゾーンに割り当てられることとなる。   Next, the CPU 102 divides this size into six equal parts from the vertical pixel size of the screen area of the monitor 101 and assigns the area of each zone. In this embodiment, since there are 600 pixels in the Y coordinate direction, 1 to 100, 101 to 200, 201 to 300, 301 to 400, 401 to 500, and 501 to 600 pixels are assigned to each zone. It becomes.

次いで、CPU102は、y_beginの値が1〜100ピクセルの間であり、タッチされたゾーンが1番目のゾーンであるか否かを判定する(S103)。S103においてy_beginの値が1番目のゾーン内に存在すると判定された場合、再生速度設定手段としてのCPU102は、scaleに「×1/1000」を設定する(S108)。なお、scaleは、設定されたスケール値を記憶するため、RAM103上の作業領域に確保された変数の名称である。   Next, the CPU 102 determines whether or not the value of y_begin is between 1 and 100 pixels and the touched zone is the first zone (S103). If it is determined in S103 that the value of y_begin exists in the first zone, the CPU 102 as the playback speed setting means sets “× 1/1000” in the scale (S108). The scale is a name of a variable secured in the work area on the RAM 103 in order to store the set scale value.

また、CPU102は、y_beginの値が1番目のゾーン内に存在しない場合、y_beginの値が101〜200ピクセルの間であり、タッチされたゾーンが2番目のゾーンであるか否かを判定する(S104)。S104においてy_beginの値が2番目のゾーン内に存在すると判定された場合、CPU102は、scaleに「×1/300」を設定する(S109)。   When the y_begin value does not exist in the first zone, the CPU 102 determines whether the y_begin value is between 101 and 200 pixels and the touched zone is the second zone ( S104). When it is determined in S104 that the value of y_begin exists in the second zone, the CPU 102 sets “× 1/300” in the scale (S109).

また、CPU102は、y_beginの値が2番目のゾーン内に存在しない場合、y_beginの値が201〜300ピクセルの間であり、タッチされたゾーンが3番目のゾーンであるか否かを判定する(S105)。S105においてy_beginの値が3番目のゾーン内に存在すると判定された場合、CPU102は、scaleに「×1/100」を設定する(S110)。   Further, when the value of y_begin does not exist in the second zone, the CPU 102 determines whether the value of y_begin is between 201 to 300 pixels and the touched zone is the third zone ( S105). When it is determined in S105 that the value of y_begin exists in the third zone, the CPU 102 sets “× 1/100” in the scale (S110).

以下同様に、CPU102は、S106では4番目のゾーン(301〜400ピクセル)であるか否かの判定を、S107では5番目のゾーン(401〜500ピクセル)であるか否かの判定を行う。そして、4番目のゾーンである場合は「×1/50」を、5番目のゾーンである場合は「×1/10」を、5番目のゾーンでなく6番目のゾーン(501〜600ピクセル)である場合は「×1/10」をscaleに設定する(S111〜S113)。上述した処理により、モニタ101の表示領域における一の方向としてのY座標の方向において、段階的にスケール値を設定する各ゾーンの中で、操作が行われたゾーンに応じてscaleが設定されることとなる。   Similarly, the CPU 102 determines whether or not it is the fourth zone (301 to 400 pixels) in S106, and determines whether or not it is the fifth zone (401 to 500 pixels) in S107. Then, if it is the fourth zone, “× 1/50” is set, and if it is the fifth zone, “× 1/10” is set to the sixth zone (501 to 600 pixels) instead of the fifth zone. Is set to “scale” (S111 to S113). Through the processing described above, scale is set according to the zone in which the operation is performed among the zones in which the scale value is set stepwise in the direction of the Y coordinate as one direction in the display area of the monitor 101. It will be.

以上のことから、ユーザは、タッチセンサ106の感知領域の如何なるゾーンでドラッグ操作を行うかで、そのドラッグ操作に関して設定されるスケール値を選択することができる。例えば、ユーザは高速に早送り・巻き戻ししたい場合は、モニタ画面上に表示されているゾーンから「×1/3」と表示されているゾーンを探し出してドラッグすれば良いことになる。また、ユーザはゆっくり早送り・巻き戻ししたい場合は、同様にモニタ画面上から「×1/300」と表示されているゾーンを探し出してドラッグすれば良いことになる。なお、この半透明色のガイド画像501は、ボタン105などを介したユーザの設定で非表示状態とすることも可能である。   From the above, the user can select a scale value set for the drag operation depending on which zone of the sensing area of the touch sensor 106 the drag operation is performed. For example, if the user wants to fast-forward / rewind at high speed, the user can find and drag the zone displayed as “× 1/3” from the zone displayed on the monitor screen. If the user wants to fast forward / rewind slowly, the user can similarly find and drag the zone displaying “× 1/300” from the monitor screen. Note that this semi-transparent guide image 501 can be set in a non-display state by a user setting via the button 105 or the like.

図9は、動画再生プレイヤの再生モードにおけるプログラムのフローチャートである。具体的には、図9は、再生モードからガイド表示モードへ、若しくはコントロールパネル表示モードへの移行するプログラムのフローチャートである。   FIG. 9 is a flowchart of the program in the playback mode of the video playback player. Specifically, FIG. 9 is a flowchart of a program for shifting from the reproduction mode to the guide display mode or to the control panel display mode.

図9に示すように、再生モード時において、CPU102は、S201でタッチセンサ106に指が触れたか否かを判定する。S201においてタッチセンサ106に指が触れた場合、CPU102はS201以降の処理を順次行う。   As shown in FIG. 9, in the playback mode, the CPU 102 determines whether or not a finger touches the touch sensor 106 in S201. When a finger touches the touch sensor 106 in S201, the CPU 102 sequentially performs the processes after S201.

CPU102は、S202にてモニタ101上でタッチセンサ106が指を感知したポイント(一点)のX座標、Y座標を取得し、S203で感知したX座標をx_beginに、Y座標をy_beginに記憶する。なお、x_beginは、タッチされたX座標の値を記憶するため、RAM103上の作業領域に確保された変数の名称である。次いで、CPU102は、S204で指がタッチセンサ106から離れたか否かを判定し、指がタッチセンサ106から離れた場合は、S205で指が離れた時間が一定時間内か否かを判定する。   The CPU 102 acquires the X coordinate and Y coordinate of the point (one point) at which the touch sensor 106 sensed the finger on the monitor 101 in S202, and stores the X coordinate sensed in S203 in x_begin and the Y coordinate in y_begin. Note that x_begin is the name of a variable secured in the work area on the RAM 103 in order to store the touched X coordinate value. Next, the CPU 102 determines whether or not the finger is separated from the touch sensor 106 in S204. If the finger is separated from the touch sensor 106, the CPU 102 determines whether or not the time when the finger is separated is within a predetermined time in S205.

S205で指が離れた時間が一定時間内である場合、CPU102は、表示モードからコントロールパネル表示モードへ動作モードを移行する。すなわち、CPU102は、S204とS205の組み合わせでタッチセンサがタップされたか否かを検出し、タップされた場合は再生モードからコントロールパネル表示モードへ移行することとなる。   When the time in which the finger is removed in S205 is within a certain time, the CPU 102 shifts the operation mode from the display mode to the control panel display mode. That is, the CPU 102 detects whether or not the touch sensor has been tapped with a combination of S204 and S205, and when tapped, the CPU 102 shifts from the playback mode to the control panel display mode.

S204で指がタッチセンサ106から離れていない場合、CPU102は、S206で指がタッチされたままの状態でのカレントポインタのX座標、Y座標を取得する。次いで、CPU102は、S207で取得したX座標をx_currentに、Y座標をy_currentに記憶する。なお、x_currentは、タッチされたX座標の現在の値を記憶するため、RAM103上の作業領域に確保された変数の名称である。同様に、y_currentは、タッチされたY座標の現在の値を記憶するため、RAM103上の作業領域に確保された変数の名称である。このように、S206、S207では、指定された一点を移動させる指示であるドラッグを検出し、その一点の移動量を取得することができる。   When the finger is not separated from the touch sensor 106 in S204, the CPU 102 acquires the X coordinate and the Y coordinate of the current pointer with the finger still touched in S206. Next, the CPU 102 stores the X coordinate acquired in S207 in x_current and the Y coordinate in y_current. Note that x_current is the name of a variable secured in the work area on the RAM 103 in order to store the current value of the touched X coordinate. Similarly, y_current is the name of a variable secured in the work area on the RAM 103 in order to store the current value of the touched Y coordinate. As described above, in S206 and S207, a drag that is an instruction to move a designated point can be detected, and the amount of movement of that point can be acquired.

次いで、CPU102は、S208でx_begin、y_beginであるタッチが開始されたポイントと、x_current、y_currentである現在のポイントとの距離により、一定距離以上のドラッグを検出したか否かを判定する。CPU102は、一定距離以上のドラッグを検出できた場合、再生モードからガイド表示モードへ動作モードを移行する。また、CPU102は、一定距離以上のドラッグを検出できなかった場合、S204へ戻って処理を続行する。   Next, the CPU 102 determines whether or not a drag of a certain distance or more has been detected based on the distance between the point where the touch of x_begin and y_begin is started in S208 and the current point of x_current and y_current. If the CPU 102 can detect a drag over a certain distance, the CPU 102 shifts the operation mode from the reproduction mode to the guide display mode. If the CPU 102 cannot detect a drag beyond a certain distance, the CPU 102 returns to S204 and continues the process.

以上のようにして、表示装置1は、タッチセンサ106でタップが行われた場合は再生モードからコントロールパネル表示モードへ動作モードが移行することとなる。また、表示装置1は、タッチセンサ106でドラッグが一定の距離以上行われた場合は再生モードからガイド表示モードへ動作モードが移行することとなる。   As described above, when the tap is performed by the touch sensor 106, the display device 1 shifts the operation mode from the reproduction mode to the control panel display mode. Further, the display device 1 shifts the operation mode from the reproduction mode to the guide display mode when the touch sensor 106 is dragged over a certain distance.

図10は、動画再生プレイヤのガイド表示モードにおけるプログラムのフローチャートである。具体的には、図10は、ガイド表示モード中のフレーム送り処理、そしてガイド表示モードから再生モードへ移行するプログラムのフローチャートである。   FIG. 10 is a flowchart of the program in the guide display mode of the video player. Specifically, FIG. 10 is a flowchart of a frame advance process during the guide display mode and a program for shifting from the guide display mode to the reproduction mode.

図10に示すように、ガイド表示モード時において、CPU102は、S301でモニタ101の画面上にガイド画像501を表示する。次いで、CPU102は、S302でy_beginの値より分解能を算出してscaleとして記憶する。具体的には、S302において、CPU102は図8に例示したフローチャートによりscaleの設定を行う。   As shown in FIG. 10, in the guide display mode, the CPU 102 displays a guide image 501 on the screen of the monitor 101 in S301. Next, the CPU 102 calculates the resolution from the value of y_begin in S302 and stores it as a scale. Specifically, in S302, the CPU 102 sets the scale according to the flowchart illustrated in FIG.

次いで、CPU102は、S303でモニタ101から指が離れたか否かをモニタ101上に設置されたタッチセンサ106の出力から検出し、指が離れて一定時間経過したか否かを判定する。ここで、指が離れて一定時間経過した場合、CPU102はガイド表示モードから再生モードへ動作モードを移行する。   Next, the CPU 102 detects whether or not the finger is removed from the monitor 101 in S303 from the output of the touch sensor 106 installed on the monitor 101, and determines whether or not a certain time has passed since the finger was removed. Here, when a certain time has elapsed after the finger is removed, the CPU 102 shifts the operation mode from the guide display mode to the reproduction mode.

すなわち、表示装置1は、ガイド表示モード中にタッチセンサ106による操作が一定時間行われない場合は再生モードへ移行することとなる。また、表示装置1は、指が離れて一定時間経過しないうちに再度ドラッグした場合は再生モードに移行せずにガイド表示モードが継続することとなる。したがって、ドラッグして指を離してまたドラッグして指を離してという操作を繰り返すことで、次々にフレームの早送り・巻き戻し行う操作ができる。   That is, the display device 1 shifts to the reproduction mode when the operation by the touch sensor 106 is not performed for a predetermined time during the guide display mode. Further, if the display device 1 is dragged again after a certain time has elapsed after the finger is removed, the guide display mode is continued without shifting to the reproduction mode. Therefore, by repeating the operation of dragging and releasing the finger and dragging and releasing the finger, it is possible to perform the operation of fast-forwarding and rewinding the frames one after another.

S303で指がモニタ101の画面上にタッチされた状態のままであれば、CPU102は、S304でカレントポインタのX座標、Y座標を取得し、取得したX座標をx_currentに、取得したY座標をy_currentに記憶する(S305)。   If the finger is still touched on the screen of the monitor 101 in S303, the CPU 102 acquires the X coordinate and Y coordinate of the current pointer in S304, and uses the acquired X coordinate as x_current and the acquired Y coordinate. Store in y_current (S305).

次いで、CPU102は、S306において次に示す式(2)のように、x_current、x_beginの差分と、画面領域(感知領域)のX方向の幅Lよりドラッグ移動量を求める。すなわち、動画像の再生フレームを指定するためのドラッグ移動量は、第1の方向であるY座標の方向と直交する第2の方向であるX座標の方向におけるポインタの移動量から求められる。
式(2):ドラッグ移動量=(x_current − x_begin)/L
Next, in S306, the CPU 102 obtains the drag movement amount from the difference between x_current and x_begin and the width L in the X direction of the screen area (sensing area) as shown in the following equation (2). That is, the drag movement amount for designating the playback frame of the moving image is obtained from the pointer movement amount in the X coordinate direction, which is the second direction orthogonal to the Y coordinate direction, which is the first direction.
Formula (2): Drag movement amount = (x_current−x_begin) / L

そして、CPU102は、ドラッグ移動量と、動画の総再生時間(m)とスケール値(scale)とにより、式(1)で示したとおりフレーム移動量(a)を求める。次いで、CPU102は、S307において、モニタ101上に表示される動画像の再生フレームを、求められたフレーム移動量分進め、その後にS303へ処理を戻す。なお、再生フレームの移動については、タッチセンサ106の感知領域において左から右へドラッグされた場合はその移動量に応じて再生方向へ、逆に、感知領域において右から左へドラッグされた場合はその移動量に応じて再生方向の逆方向へ進むものとする。   Then, the CPU 102 obtains the frame movement amount (a) as shown by the equation (1) based on the drag movement amount, the total moving image reproduction time (m), and the scale value (scale). Next, in step S307, the CPU 102 advances the playback frame of the moving image displayed on the monitor 101 by the calculated frame movement amount, and then returns the process to step S303. Regarding the movement of the playback frame, when dragging from the left to the right in the sensing area of the touch sensor 106, in the playback direction according to the amount of movement, conversely, when dragging from the right to the left in the sensing area. It is assumed that the movement proceeds in the reverse direction of the reproduction direction according to the movement amount.

ここで、120分の動画像を再生している際に、X座標が200、Y座標が468のポイントからドラッグをはじめ、X座標が600、Y座標が468のポイントまでドラッグした場合を例にして説明する。なお、画面領域(感知領域)は、X方向に800ピクセル、Y方向に600ピクセルとする。   Here, as an example, when a moving image of 120 minutes is played, dragging is started from a point having an X coordinate of 200 and a Y coordinate of 468, and then dragging to a point having an X coordinate of 600 and a Y coordinate of 468. I will explain. The screen area (sensing area) is 800 pixels in the X direction and 600 pixels in the Y direction.

まず、Y座標が468であることから、設定されるスケール値(scale)は「×1/10」である。さらに、式(2)により、ドラッグ移動量は、(600−200)/800=0.5である。したがって、式(1)により、フレーム移動量は120×(1/10)×0.5=6(分)であり、例示した操作で動画像は6分進むこととなる。   First, since the Y coordinate is 468, the set scale value (scale) is “× 1/10”. Further, according to the equation (2), the drag movement amount is (600−200) /800=0.5. Therefore, according to Expression (1), the frame movement amount is 120 × (1/10) × 0.5 = 6 (minutes), and the moving image advances by 6 minutes by the illustrated operation.

また、125分の動画を再生している際に、X座標が0、Y座標が116のポイントからドラッグをはじめ、X座標が800、Y座標が116のポイントまでドラッグした場合についても以下に説明する。なお、画面領域(感知領域)は前述したとおりとする。   In addition, when a 125 minute moving image is being played back, a case where dragging starts from a point with an X coordinate of 0 and a Y coordinate of 116, and a drag to a point with an X coordinate of 800 and a Y coordinate of 116 will be described below. To do. The screen area (sensing area) is as described above.

まず、Y座標が116であることから、設定されるスケール値(scale)は「×1/300」である。さらに、式(2)により、ドラッグ移動量は、(800−0)/800=1である。したがって、式(1)により、フレーム移動量は125(125分=7500秒)×(1/300)×1=25(秒)であり、例示した操作で動画像は25秒進むこととなる。また、1秒間に32フレーム表示である動画像であれば、25(秒)×32(フレーム)=800(フレーム)であり、1ピクセルドラッグすると動画像が1フレーム進むこととなる。   First, since the Y coordinate is 116, the set scale value (scale) is “× 1/300”. Further, according to the equation (2), the drag movement amount is (800-0) / 800 = 1. Therefore, according to the expression (1), the frame movement amount is 125 (125 minutes = 7500 seconds) × (1/300) × 1 = 25 (seconds), and the moving image advances by 25 seconds by the illustrated operation. Further, in the case of a moving image that displays 32 frames per second, 25 (seconds) × 32 (frames) = 800 (frames), and dragging one pixel moves the moving image by one frame.

ここで、従来どおりに、800ピクセル分の長さの1つのスライドバーで、1秒間に32フレーム表示の125分の動画像を操作する場合を例示する。この場合は、125(分)×60(秒/分)×32(フレーム/秒)/800(ピクセル)=300(フレーム)であり、1ピクセルドラッグした場合には300フレーム進むこととなる。したがって、本実施形態では、スケール値(scale)が「×1/300」となるゾーンでドラッグ操作を行うことで、従来のスライドバーより細かいレベルでのフレーム検索が可能になることがわかる。このように、本実施形態において、ユーザは、1ピクセルあたりのフレーム移動量であるスケールが所望する値に設定されるゾーンでドラッグ操作を行うことで、希望するシーンを容易に検索することが可能となる。また、表示装置1は、モニタ101における動画像を表示する領域を含む表示領域内で、タッチセンサ106によりポインタの操作が行われるため、動画像の視認性を低下させることがない。   Here, a case where a moving image of 125 minutes displayed in 32 frames per second is operated with one slide bar having a length of 800 pixels as in the past will be exemplified. In this case, 125 (minutes) × 60 (seconds / minute) × 32 (frames / second) / 800 (pixels) = 300 (frames). When one pixel is dragged, 300 frames are advanced. Therefore, in this embodiment, it can be seen that by performing a drag operation in a zone where the scale value (scale) is “× 1/300”, a frame search can be performed at a level finer than that of a conventional slide bar. As described above, in this embodiment, the user can easily search for a desired scene by performing a drag operation in a zone in which the scale, which is the amount of frame movement per pixel, is set to a desired value. It becomes. Further, the display device 1 does not reduce the visibility of the moving image because the pointer is operated by the touch sensor 106 in the display area including the area where the moving image is displayed on the monitor 101.

[第2の実施形態]
第1の実施形態では、各ゾーンによってドラッグの単位移動量に対するフレームの移動量が変化していた。すなわち、第1の実施形態では、Y座標の値に対し、動画像の再生速度であるスケール値が段階的に設定されており、Y座標の位置に応じて非線形にスケール値が設定されていた。これに対し、第2の実施形態では、ゾーンで区別することなく、Y座標の値に応じて線形的に(動的に)、スケール値が設定される場合を例示する。
[Second Embodiment]
In the first embodiment, the moving amount of the frame with respect to the unit moving amount of the drag changes depending on each zone. That is, in the first embodiment, the scale value, which is the moving image playback speed, is set stepwise with respect to the Y coordinate value, and the scale value is set nonlinearly according to the position of the Y coordinate. . On the other hand, in the second embodiment, a case where the scale value is set linearly (dynamically) according to the value of the Y coordinate without being distinguished by the zone is illustrated.

図11は、第1の実施形態に係るスケール値の設定を例示する概念図であり、Y座標の値に対して非線形にスケール値が設定される様子を例示している。図11に示すように、「×1/100」のスケール値が設定されるゾーン1101内のY座標であれば、どこからドラッグしても「×1/100」のスケールのスライダとして機能する。また、「×1/50」のゾーン内であればどこからドラッグしても「×1/50」のスケールのスライダとして機能する。つまり、図11の例では、ドラッグの起点であるY座標から非線形にスケールが決まる。   FIG. 11 is a conceptual diagram illustrating the setting of the scale value according to the first embodiment, and illustrates how the scale value is set nonlinearly with respect to the value of the Y coordinate. As shown in FIG. 11, the Y coordinate in the zone 1101 where the scale value of “× 1/100” is set functions as a slider of the scale of “× 1/100”, regardless of where it is dragged. In addition, if it is dragged from within the “× 1/50” zone, it functions as a slider with a scale of “× 1/50”. That is, in the example of FIG. 11, the scale is determined nonlinearly from the Y coordinate that is the starting point of the drag.

図12は、第2実施形態に係るスケール値の設定を例示する概念図であり、Y座標に対して線形的にスケール値が設定される様子を例示している。図12に示すように、モニタ101上の真ん中であるポイント1201を起点にドラッグした場合は「×1/50」のスケールのスライダとして機能するものとする。そして、ポイント1201より1つ上のポイント1202を起点にドラッグした場合は「×1/51」のスケール、さらに上のポイント1203を起点にドラッグした場合は「×1/52」のスケールのスライダとして機能する。すなわち、第2の実施形態では、Y座標に対して線形的にスケール値が設定され、その設定されたスケールのスライダとして機能する。   FIG. 12 is a conceptual diagram illustrating the setting of the scale value according to the second embodiment, and illustrates how the scale value is set linearly with respect to the Y coordinate. As shown in FIG. 12, when a point 1201 in the middle on the monitor 101 is dragged as a starting point, it functions as a slider having a scale of “× 1/50”. When dragging a point 1202 one point above the point 1201 as a starting point, the scale is “× 1/51”, and when dragging a point 1203 above the starting point, the slider is a scale of “× 1/52”. Function. That is, in the second embodiment, a scale value is set linearly with respect to the Y coordinate and functions as a slider of the set scale.

[第3の実施形態]
次に、第3の実施形態として、ドラッグ中にリアルタイムにポインタの位置を取得し、カレントポインタが位置するY座標から算出されるカレントスケールが常に更新されつづける場合を説明する。具体的には、図13に示すように、斜めにドラッグした場合の振る舞いを例示して説明する。
[Third Embodiment]
Next, as a third embodiment, a case will be described in which the position of the pointer is acquired in real time during dragging, and the current scale calculated from the Y coordinate where the current pointer is located is constantly updated. Specifically, as shown in FIG. 13, the behavior when dragging diagonally will be described as an example.

図13に示すようにドラッグした場合、第1の実施形態では、ドラッグを開始したポイント1301でのY座標に相当するスケールが設定される。そして、ドラッグしたベクトル1302のうち、X座標の方向で分解した移動量1303に応じた分、フレームが進むこととなる。   When dragging as shown in FIG. 13, in the first embodiment, a scale corresponding to the Y coordinate at the point 1301 at which dragging is started is set. Then, the frame advances by an amount corresponding to the movement amount 1303 decomposed in the X coordinate direction in the dragged vector 1302.

これに対し、第3の実施形態では、ドラッグ中にリアルタイムにポインタの位置(X座標、Y座標)を取得し、カレントポインタが位置するY座標から算出されるカレントスケールが常に更新されつづける。そして、更新されたカレントスケールと、X座標の方向で分解した移動量とに応じて、フレームが進むこととなる。この場合は、斜め方向にドラッグ中にスケールがリアルタイムに変化し続けるため、フレームの移動量がダイナミックなフレーム検索が可能になる。   On the other hand, in the third embodiment, the position of the pointer (X coordinate, Y coordinate) is acquired in real time during dragging, and the current scale calculated from the Y coordinate where the current pointer is located is constantly updated. Then, the frame advances in accordance with the updated current scale and the movement amount decomposed in the X coordinate direction. In this case, since the scale continues to change in real time while dragging in an oblique direction, a frame search in which the moving amount of the frame is dynamic becomes possible.

具体的には、CPU102は、後述する処理を所定の周期で行い、ドラッグにより移動するポインタの軌跡をX座標、Y座標の成分に分解して、X座標方向の移動量と、Y座標の位置に応じたスケール値を取得する。次いで、CPU102は、取得した移動量とスケール値とに基づいて動画像の再生フレームを制御する。   Specifically, the CPU 102 performs processing to be described later at a predetermined cycle, decomposes the locus of the pointer that moves by dragging into X-coordinate and Y-coordinate components, and moves the movement amount in the X-coordinate direction and the position of the Y-coordinate. Get the scale value according to. Next, the CPU 102 controls the playback frame of the moving image based on the acquired movement amount and scale value.

図14は、第3の実施形態に係るガイド表示モードにおけるプログラムのフローチャートである。図14に示すように、ガイド表示モード時において、CPU102は、S401でモニタ101の画面上にガイド画像501を表示する。次いで、CPU102は、S402でドラッグの開始点を示すx_begin、y_beginをx_current、y_currentに代入する。   FIG. 14 is a flowchart of a program in the guide display mode according to the third embodiment. As shown in FIG. 14, in the guide display mode, the CPU 102 displays a guide image 501 on the screen of the monitor 101 in S401. Next, in step S <b> 402, the CPU 102 substitutes x_begin and y_begin indicating the drag start point in x_current and y_current.

次いで、CPU102は、S403でモニタ101から指が離れたか否かをモニタ101上に設置されたタッチセンサ106の出力から検出し、指が離れて一定時間経過したか否かを判定する。ここで、指が離れて一定時間経過した場合、CPU102はガイド表示モードから再生モードへ動作モードを移行する。   Next, in step S403, the CPU 102 detects whether or not the finger has been removed from the monitor 101 from the output of the touch sensor 106 installed on the monitor 101, and determines whether or not a certain time has passed since the finger has been removed. Here, when a certain time has elapsed after the finger is removed, the CPU 102 shifts the operation mode from the guide display mode to the reproduction mode.

S403で指がモニタ101の画面上にタッチされた状態のままであれば、CPU102は、S404でカレントポインタのX座標、Y座標をx_old、y_oldに代入する。なお、x_old、y_oldは、タッチされたX座標、Y座標の履歴を記録するため、RAM103上の作業領域に確保された変数の名称である。   If the finger remains touched on the screen of the monitor 101 in S403, the CPU 102 substitutes the X coordinate and Y coordinate of the current pointer for x_old and y_old in S404. Note that x_old and y_old are names of variables secured in the work area on the RAM 103 in order to record the history of touched X and Y coordinates.

次いで、CPU102は、S405でタッチセンサ106よりカレントポインタのX座標、Y座標を取得し、取得したX座標をx_currentに、取得したY座標をy_currentに記憶する(S406)。   Next, the CPU 102 acquires the X coordinate and Y coordinate of the current pointer from the touch sensor 106 in S405, and stores the acquired X coordinate in x_current and the acquired Y coordinate in y_current (S406).

次いで、CPU102は、S407でy_currentの値より分解能を算出してscaleとして記憶する。具体的には、S407において、CPU102は図8に例示したフローチャートによりscaleの設定を行う。   Next, the CPU 102 calculates a resolution from the value of y_current in step S407 and stores it as a scale. Specifically, in S407, the CPU 102 sets the scale according to the flowchart illustrated in FIG.

次いで、CPU102は、S408において、式(1)で示したとおり、x_current、x_old、scaleよりフレーム移動量(a)を求める。次いで、CPU102は、S409において、モニタ101上に表示される動画像を、求められたフレーム移動量分進め、その後にS403へ処理を戻す。   Next, in step S <b> 408, the CPU 102 obtains the frame movement amount (a) from x_current, x_old, and scale as indicated by the expression (1). Next, in step S409, the CPU 102 advances the moving image displayed on the monitor 101 by the calculated frame movement amount, and then returns the process to step S403.

[第4の実施形態]
第1の実施形態では、モニタとタッチパネルを有する動画像の再生が可能な携帯型の表示装置を例示した。この表示装置は、以下に説明する第4の実施形態の如く、パーソナルコンピュータであってもよい。
[Fourth Embodiment]
In the first embodiment, a portable display device that can reproduce a moving image having a monitor and a touch panel is illustrated. This display device may be a personal computer as in the fourth embodiment described below.

具体的には、図15に示すように、図1に例示したボタン105をキーボード1505に、タッチセンサ106をマウス1506に置き換えたパーソナルコンピュータ1500であってよい。なお、マウス1506は、ジョイスティックやタッチパッドなど、マウス以外のポインティングデバイスであってよい。   Specifically, as shown in FIG. 15, a personal computer 1500 in which the button 105 illustrated in FIG. 1 is replaced with a keyboard 1505 and the touch sensor 106 is replaced with a mouse 1506 may be used. Note that the mouse 1506 may be a pointing device other than a mouse, such as a joystick or a touch pad.

キーボード1505は、押下可能なキーが配列されており、ユーザが押下したキーを示す信号をCPU1502に出力することにより、CPU1502に割り込みを発生させる。CPU1502は、割り込みが発生した際に、キーの押下状態とどのキーが押されたかを検出する。   The keyboard 1505 has keys that can be pressed, and outputs a signal indicating the key pressed by the user to the CPU 1502 to cause the CPU 1502 to generate an interrupt. When an interrupt occurs, the CPU 1502 detects a key pressing state and which key is pressed.

マウス1506は、例えばレーザー方式や光学方式のマウスであり、ユーザがポイントした場所を検出可能となっている。また、マウス1506は、ユーザが押下したマウスのボタンを示す信号をCPU1502に出力することで、CPU1502に割り込みを発生させ、ドラッグまたはクリックされた領域上の座標をCPUに通知することが可能となっている。   The mouse 1506 is, for example, a laser-type or optical-type mouse, and can detect the location pointed by the user. Also, the mouse 1506 outputs a signal indicating the mouse button pressed by the user to the CPU 1502, thereby generating an interrupt to the CPU 1502 and notifying the CPU of the coordinates on the dragged or clicked area. ing.

なお、モニタ1501、CPU1502、RAM1503、ROM1504、オーディオ出力部1507、記憶部1508については、図1に例示した構成と同様である。また、パーソナルコンピュータ1500の各部は、バス1509によって相互に接続されている。   Note that the monitor 1501, the CPU 1502, the RAM 1503, the ROM 1504, the audio output unit 1507, and the storage unit 1508 are the same as those illustrated in FIG. Each part of the personal computer 1500 is connected to each other by a bus 1509.

例えば、パーソナルコンピュータ1500において、ROM1504には動画再生アプリケーションプログラムが格納されており、CPU1502はその動画再生アプリケーションプログラムを実行する。これにより、CPU1502はパーソナルコンピュータ1500における動画再生を制御する。具体的には、CPU1502は、動画再生アプリケーションプログラムに従って、記憶部1508から読み出した動画データをRAM1503の作業領域に展開する。ついで、CPU1502は、展開した動画データに対して復号化処理や変換処理等のデータ処理を行い、処理後の動画像をモニタ1501に映し出す。また、CPU1502は、動画データとセットで記憶部1508に記憶されている音声データを、同様にRAM1503の作業領域に展開して所定の処理を行った後にオーディオ出力部1507へ出力する。このようにして、パーソナルコンピュータ1500では、記憶部1508に格納された動画像表示と、その動画像に対応した音声再生を行う。なお、パーソナルコンピュータ1500において、再生すべき動画像の選択指示や、動画像再生時における操作指示は、キーボード1505やマウス1506を介してユーザから受け付けられる。   For example, in the personal computer 1500, the ROM 1504 stores a moving image playback application program, and the CPU 1502 executes the moving image playback application program. As a result, the CPU 1502 controls moving image reproduction in the personal computer 1500. Specifically, the CPU 1502 expands the moving image data read from the storage unit 1508 in the work area of the RAM 1503 according to the moving image reproduction application program. Next, the CPU 1502 performs data processing such as decoding processing and conversion processing on the developed moving image data, and displays the processed moving image on the monitor 1501. Further, the CPU 1502 similarly expands the audio data stored in the storage unit 1508 together with the moving image data in the work area of the RAM 1503, performs predetermined processing, and then outputs the audio data to the audio output unit 1507. In this way, the personal computer 1500 displays the moving image stored in the storage unit 1508 and reproduces the sound corresponding to the moving image. In the personal computer 1500, an instruction for selecting a moving image to be reproduced and an operation instruction for reproducing the moving image are received from the user via the keyboard 1505 and the mouse 1506.

図16は、パーソナルコンピュータ1500の外観を例示する概念図である。図16に示すように、本体1601には、前述したCPU、RAM、ROM、記憶部などが格納されている。また、モニタ1501の両側には、オーディオ出力部1507としてスピーカが設けられている。パーソナルコンピュータ1500では、モニタ1501の両側に設けられたスピーカからの音声出力が可能となっている。   FIG. 16 is a conceptual diagram illustrating the external appearance of the personal computer 1500. As shown in FIG. 16, the main body 1601 stores the above-described CPU, RAM, ROM, storage unit, and the like. In addition, speakers are provided as audio output units 1507 on both sides of the monitor 1501. The personal computer 1500 can output sound from speakers provided on both sides of the monitor 1501.

モニタ101の画面領域中のウインドウ領域には、動画像1602が表示されている。パーソナルコンピュータ1500は、マウス1506でウインドウ領域の任意の場所がポイントされてクリックやドラッグが行われた場合、そのウインドウ領域上の座標を取得する。したがって、パーソナルコンピュータ1500では、ユーザがマウス1506を操作し、動画再生アプリケーションプログラムのウインドウ領域上でクリックやドラッグを行うことで、動画再生アプリケーションを操作することができる。   A moving image 1602 is displayed in a window area in the screen area of the monitor 101. When the mouse 1506 points to an arbitrary place in the window area and clicks or drags, the personal computer 1500 acquires coordinates on the window area. Therefore, in the personal computer 1500, the user can operate the video playback application by operating the mouse 1506 and clicking or dragging on the window area of the video playback application program.

キーボード1505は、再生・停止・早送り・巻戻し・一時停止・決定に対応したショートカットキーなどを有している。したがって、パーソナルコンピュータ1500では、ユーザがキーボード1505のショートカットキーを押下することで、動画再生アプリケーションを操作することができる。   The keyboard 1505 has shortcut keys corresponding to playback, stop, fast forward, rewind, pause, and determination. Therefore, in the personal computer 1500, the user can operate the moving image playback application by pressing a shortcut key on the keyboard 1505.

上述したパーソナルコンピュータ1500における動作は、第1の実施形態で例示した表示装置1の動作と略同様であり、ユーザの操作入力がタッチセンサ106からマウス1506に替わったことが異なる。以下では、タッチセンサ106による操作からマウス1506による操作に替わることで異なる点を列挙して説明する。   The operation of the personal computer 1500 described above is substantially the same as the operation of the display device 1 exemplified in the first embodiment, except that the user's operation input is changed from the touch sensor 106 to the mouse 1506. In the following, differences from the operation by the touch sensor 106 to the operation by the mouse 1506 will be listed and described.

・『タッチセンサをタップする』という趣旨の記載は『マウスをクリックする』に読みかえられるものとする。
・『タッチし続ける』という趣旨の記載は『マウスのボタンを押下しつづける』に読みかえられるものとする。
・『モニタ画面上をタッチしてモニタから指を離さずにドラッグする』という趣旨の記載は『動画表示領域画面上をクリックして、マウスのボタンをクリックしたままドラッグする』に読みかえられるものとする。
・『モニタ画面から指を離して一定時間経過』という趣旨の記載は『マウスのボタンから指を離して一定時間経過』に読みかえられるものとする。
・『再度タッチしてドラッグ』という趣旨の記載は『再度クリックしてドラッグ』に読みかえられるものとする。
・『タッチパネルは』という趣旨の記載は『動画像が表示されているウィンドウ領域は』に読みかえられるものとする。
・『タッチパネルとする』という趣旨の記載は『ウィンドウとする』に読みかえられるものとする。
・『タッチされた』という趣旨の記載は『クリックされた』に読みかえられるものとする。
・『タッチセンサに指が触れた』という趣旨の記載は『マウスがクリックされた』に読みかえられるものとする。
・『タッチセンサが感知した』という趣旨の記載は『クリックされた』に読みかえられるものとする。
・『タッチセンサがタップされた』という趣旨の記載は『マウスがクリックされた』に読みかえられるものとする。
・『指がタッチされたままの状態』という趣旨の記載は『マウスがクリックされたままの状態』に読みかえられるものとする。
・『モニタ画面から指が離れた』という趣旨の記載は『マウスから指が離れた』又は『クリック状態が解除された』に読みかえられるものとする。
・『指が離れて一定時間経過』という趣旨の記載は『マウスから指が離れて一定時間経過』又は『クリック状態が解除されて一定時間経過』に読みかえられるものとする。
・『指がモニタにタッチされた状態のまま』という趣旨の記載は『マウスがクリックされた状態のまま』に読みかえられるものとする。
・ The statement “tap the touch sensor” can be read as “click the mouse”.
・ The statement “Continue to touch” can be read as “Continue to press the mouse button”.
・ The statement that “Drag without releasing your finger from the monitor by touching the monitor screen” can be read as “Click and drag the mouse button while clicking on the video display area screen”. To do.
・ The statement “A certain time has elapsed after releasing your finger from the monitor screen” can be read as “A certain time has elapsed after releasing your finger from the mouse button”.
・ The statement “touch and drag again” can be read as “click and drag again”.
-The description of “touch panel is” can be read as “window area where moving image is displayed”.
・ The description of “to use touch panel” can be read as “to use window”.
・ The description of “touched” can be read as “clicked”.
・ The statement that “a finger touched the touch sensor” can be read as “mouse clicked”.
・ The description that “touch sensor has detected” can be read as “clicked”.
・ The description of “touch sensor tapped” can be read as “mouse clicked”.
-The statement to the effect that "the finger is still touched" can be read as "the mouse is still clicked".
-The statement that "the finger has been removed from the monitor screen" can be read as "the finger has been removed from the mouse" or "the click state has been released".
・ The statement “A certain time has passed since the finger has been removed” can be read as “A certain time has elapsed since the finger was removed from the mouse” or “A certain time has elapsed since the click state was released”.
-The statement to the effect that "the finger is still touching the monitor" can be read as "the mouse is still clicked".

以上のことから、第1の実施形態で例示した表示装置1に加えて、パーソナルコンピュータ1500にも応用可能である。したがって、パーソナルコンピュータ1500では、オペレーティングシステム上で動作する動画再生アプリケーションや動画編集ソフトにおいて、希望のシーンを素早く検索して再生・編集することができる。   From the above, in addition to the display device 1 exemplified in the first embodiment, the present invention can be applied to a personal computer 1500. Therefore, in the personal computer 1500, a desired scene can be quickly searched for and reproduced / edited by a moving image reproducing application or moving image editing software operating on the operating system.

[第5の実施形態]
以下で説明する第5の実施形態は、動画像の総再生時間に依存しないスケール値の設定を行うものである。ここで、第5の実施形態に係るフレーム移動量を算出するための式(1’)を次に示す。なお、式(1’)は、第1の実施形態における式(1)より、動画像の総再生時間の項を削除した式である。また、第5の実施形態において、式(1’)とこの式に関わる処理手順以外の、構成及び処理手順は第1の実施形態と同様である。
式(1’):フレーム移動量=スケール×ドラッグの移動量
[Fifth Embodiment]
In the fifth embodiment described below, a scale value that does not depend on the total playback time of moving images is set. Here, Expression (1 ′) for calculating the frame movement amount according to the fifth embodiment is shown below. Note that Expression (1 ′) is an expression in which the term of the total playback time of moving images is deleted from Expression (1) in the first embodiment. In the fifth embodiment, the configuration and the processing procedure other than the equation (1 ′) and the processing procedure related to this equation are the same as those in the first embodiment.
Expression (1 ′): frame movement amount = scale × drag movement amount

式(1’)におけるスケールは、
最遅:1フレーム/10ピクセル 表記⇒「×1/10」
最速:30フレーム/1ピクセル 表記⇒「×30/1」
とする。この場合、最遅時には、動画像の総再生時間に関わらず、動画像画面上で10ピクセル分ドラッグして1フレーム進む細かいフレーム検索となる。また、最速時には、動画像の総再生時間に関わらず、動画像画面上で1ピクセル分ドラッグすると30フレーム分進む、粗いフレーム検索となる。例えば、画面領域(感知領域)の幅が800ピクセルで且つ、1秒間に30フレームを持つ動画像において、ユーザが最速となる「×30/1」のゾーンで画面の左端から右端までドラッグした場合、800秒フレームが進むことになる。
The scale in equation (1 ′) is
Slowest: 1 frame / 10 pixels Notation ⇒ “× 1/10”
Fastest: 30 frames / 1 pixel Notation ⇒ “× 30/1”
And In this case, at the latest time, regardless of the total playback time of the moving image, a fine frame search is performed by dragging 10 pixels on the moving image screen and advancing one frame. At the fastest speed, a rough frame search is performed by dragging one pixel on the moving image screen by 30 frames regardless of the total reproduction time of the moving image. For example, when a user drags from the left edge of the screen to the right edge in the fastest “× 30/1” zone in a moving image having a screen area (sensing area) width of 800 pixels and 30 frames per second. The 800 second frame is advanced.

以上のことから、動画像の総再生時間に関わらず、数ピクセル分のドラッグで1フレーム単位進む細かいフレーム検索、または1ピクセル分のドラッグで数十フレーム進む粗いフレーム検索が可能になる。したがって、ユーザーは動画像の総再生時間を意識することなく、常に使い慣れたスケールでの動画像のフレーム検索ができる。   From the above, regardless of the total playback time of a moving image, a fine frame search that advances one frame unit by dragging several pixels or a coarse frame search that advances several tens frames by dragging one pixel becomes possible. Therefore, the user can always search for a frame of a moving image on a familiar scale without being aware of the total playback time of the moving image.

[第6の実施形態]
第1の実施形態では画面領域(感知領域)上に配置されている各ゾーンのスケール値は固定値であったが、以下に示す第6の実施形態の如く、スケール値は切り替え可能な値であってよい。
[Sixth Embodiment]
In the first embodiment, the scale value of each zone arranged on the screen area (sensing area) is a fixed value, but the scale value is a switchable value as in the sixth embodiment shown below. It may be.

第6の実施形態では、図17に示すように、画面1701であるガイド表示モードの際に、ホイール付マウスで切替手段としてのホイールを下にロールすると、画面1702に切り替えられる。画面1702は、画面1701に対して各ゾーンが1つずつ下にずれて、一番上のゾーンにはそれまで一番上のゾーンにあったものよりもより分解能の高いスケールを持つゾーンが出現したものである。このように、ホイール付マウスでホイールを下にロールした場合には各ゾーンのスケール値がより分解能の高い値に変わってもよい。なお、この操作は複数回繰り返し可能であり、操作の度に各ゾーンのスケールがより分解能の高い値に変わってよい。   In the sixth embodiment, as shown in FIG. 17, when the wheel as a switching unit is rolled down with a mouse with a wheel in the guide display mode which is the screen 1701, the screen is switched to the screen 1702. In the screen 1702, each zone is shifted down one by one with respect to the screen 1701, and a zone having a higher resolution scale appears in the top zone than that in the top zone so far. It is what. In this way, when the wheel is rolled down with a mouse with a wheel, the scale value of each zone may change to a value with higher resolution. This operation can be repeated a plurality of times, and the scale of each zone may change to a higher resolution value each time the operation is performed.

逆に、ホイール付マウスでホイールを上にロールした場合には各ゾーンのスケール値がより分解能の低い値に変わってもよい。例えば、ホイール付マウスでホイールを上にロールした場合は、各ゾーンが1つずつ上にずれて、一番下のゾーンにはそれまで一番下のゾーンにあったものよりも分解能の低いスケールを持つゾーンが出現する。この操作も複数回繰り返し可能であり、操作の度に各ゾーンのスケールがより分解能の高い値に変わってよい。   Conversely, when the wheel is rolled up with a mouse with a wheel, the scale value of each zone may change to a lower resolution value. For example, if you roll a wheel up with a mouse with a wheel, each zone will be shifted up one by one, and the bottom zone will have a lower resolution than what was in the bottom zone so far A zone with appears. This operation can also be repeated a plurality of times, and the scale of each zone may change to a higher resolution value each time the operation is performed.

この方法によって、ユーザは、現在の画面領域に表示されているスケール以外のスケールに切り替えて、ユーザ好みのスケールを選択してフレームの先送り、フレームの逆送りをすることが可能になる。なお、スケールを切り替える切替指示は、キーボードによる操作指示や、キーボードにボタンを押下しながらのマウス操作などであってよく、ホイール付マウスでホイールをロールする方法に限定しない。   By this method, the user can switch to a scale other than the scale displayed in the current screen area, select a user-preferred scale, and advance or reverse the frame. The switching instruction for switching the scale may be an operation instruction using a keyboard or a mouse operation while pressing a button on the keyboard, and is not limited to a method of rolling a wheel with a mouse with a wheel.

なお、上述した実施の形態における記述は、一例を示すものであり、これに限定するものではない。上述した実施の形態における構成及び動作に関しては、適宜変更が可能である。   Note that the description in the above-described embodiment shows an example, and the present invention is not limited to this. The configuration and operation in the embodiment described above can be changed as appropriate.

例えば、本実施形態では、ポインタのY座標に応じてスケール値を、X座標の移動量で動画像の巻き戻し量・早送り量を指示する構成を例示したが、逆にY座標で巻き戻し量・早送り量を、X座標でスケール値を指示してもよい。また、スケール値を指示する方向と動画像の巻き戻し量・早送り量を指示する方向とは、互いに直交関係にある必要はない。   For example, in this embodiment, the scale value is indicated according to the Y coordinate of the pointer, and the rewind amount / fast forward amount of the moving image is instructed by the movement amount of the X coordinate. -The rapid feed amount may be indicated by the scale value in the X coordinate. Further, the direction instructing the scale value and the direction instructing the moving image rewind amount / fast forward amount do not have to be orthogonal to each other.

また、スケール値と動画像の巻き戻し量・早送り量の指示は、上述した直交座標系だけでなく、動径と偏角による極座標系で行われてもよい。具体的には、原点である画面中心からドラッグ開始までの距離でスケール値を、ドラッグ開始から終了までの成す偏角で動画像の巻き戻し量・早送り量を指示してもよい。この場合は直交座標系と異なり、動径方向には画面幅の制限があるが、偏角には画面幅による制限がない。したがって、ドラッグ開始から終了までの成す偏角で動画像の巻き戻し量・早送り量を指示する場合は、画面幅による制限を気にすることなく、動画像の巻き戻しや早送りを自在に指示できる。また、原点である画面中心からドラッグ開始までの距離でスケール値を指示する場合は、画面中心に近づくほど分解能を低くするスケール値となるように設定することが好ましい。この場合、素早く早送り・巻き戻しを行う際には、中心からの距離が短く、偏角に対する操作量が少なくて済む。また、ゆっくりと早送り・巻き戻しを行う際には、中心からの距離が長く偏角に対する操作量が多く必要となるため、動画像の巻き戻しや早送りによる所望のフレーム検出を容易に行うことが可能となる。   In addition, the instruction of the scale value and the moving image rewinding amount / fast-forwarding amount may be performed not only in the orthogonal coordinate system described above but also in a polar coordinate system based on the moving radius and the declination angle. Specifically, the scale value may be indicated by the distance from the center of the screen, which is the origin, to the start of dragging, and the rewinding amount / fast-forwarding amount of the moving image may be indicated by the declination formed from the start to the end of the dragging. In this case, unlike the orthogonal coordinate system, the screen width is limited in the radial direction, but the deflection angle is not limited by the screen width. Therefore, when instructing the rewind amount / fast forward amount of the moving image by the declination formed from the start to the end of the drag, it is possible to freely instruct rewinding or fast forwarding of the moving image without worrying about the limitation due to the screen width. . In addition, when the scale value is designated by the distance from the center of the screen, which is the origin, to the start of dragging, it is preferable to set the scale value so that the resolution becomes lower as the center of the screen is approached. In this case, when fast-forwarding / rewinding is performed quickly, the distance from the center is short, and the operation amount with respect to the declination is small. In addition, when fast-forwarding and rewinding slowly, the distance from the center is long and a large amount of operation is required for the declination, so that it is easy to detect a desired frame by rewinding or fast-forwarding a moving image. It becomes possible.

(他の実施形態)
上述の実施形態においては動画像を対象として説明したが、複数の静止画についても同様に取り扱うことが可能である。すなわち、個々の静止画を動画像の1フレームとして(あるいは、動画像を一連の画像データとして)取り扱うことにより、上述の動作は静止画の再生時においても同様に適用できる。この際、静止画データが時間情報を有していれば、時間情報の順番で順次表示させてもよい。
その結果、大量の静止画像を順次表示する際、画面の下部でのドラッグ操作であれば例えば2枚とばしで再生し、上部でのドラッグ操作であれば例えば100枚飛ばしで表示するようにすることができる。
(Other embodiments)
In the above-described embodiment, a moving image has been described, but a plurality of still images can be handled in the same manner. That is, by handling each still image as one frame of a moving image (or moving image as a series of image data), the above-described operation can be similarly applied during reproduction of a still image. At this time, if the still image data has time information, it may be sequentially displayed in the order of the time information.
As a result, when a large number of still images are sequentially displayed, if a drag operation is performed at the bottom of the screen, for example, two images are reproduced, and if a drag operation is performed at the top, for example, 100 images are skipped. Can do.

上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。   The above-described embodiment can also be realized in software by a computer of a system or apparatus (or CPU, MPU, etc.). Therefore, the computer program itself supplied to the computer in order to implement the above-described embodiment by the computer also realizes the present invention. That is, the computer program itself for realizing the functions of the above-described embodiments is also one aspect of the present invention.

なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。   The computer program for realizing the above-described embodiment may be in any form as long as it can be read by a computer. For example, it can be composed of object code, a program executed by an interpreter, script data supplied to the OS, but is not limited thereto. A computer program for realizing the above-described embodiment is supplied to a computer via a storage medium or wired / wireless communication. Examples of the storage medium for supplying the program include a magnetic storage medium such as a flexible disk, a hard disk, and a magnetic tape, an optical / magneto-optical storage medium such as an MO, CD, and DVD, and a nonvolatile semiconductor memory.

有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。   As a computer program supply method using wired / wireless communication, there is a method of using a server on a computer network. In this case, a data file (program file) that can be a computer program forming the present invention is stored in the server. The program file may be an executable format or a source code. Then, the program file is supplied by downloading to a client computer that has accessed the server. In this case, the program file can be divided into a plurality of segment files, and the segment files can be distributed and arranged on different servers. That is, a server apparatus that provides a client computer with a program file for realizing the above-described embodiment is also one aspect of the present invention.

また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。   In addition, a storage medium in which the computer program for realizing the above-described embodiment is encrypted and distributed is distributed, and key information for decrypting is supplied to a user who satisfies a predetermined condition, and the user's computer Installation may be allowed. The key information can be supplied by being downloaded from a homepage via the Internet, for example. Further, the computer program for realizing the above-described embodiment may use an OS function already running on the computer. Further, a part of the computer program for realizing the above-described embodiment may be configured by firmware such as an expansion board attached to the computer, or may be executed by a CPU provided in the expansion board. Good.

第1の実施形態に係る表示装置のブロック図である。1 is a block diagram of a display device according to a first embodiment. 第1の実施形態に係る表示装置の正面外観を例示する概念図である。1 is a conceptual diagram illustrating a front appearance of a display device according to a first embodiment. 第1の実施形態に係る動画再生プレイヤの概要を説明する概念図である。It is a conceptual diagram explaining the outline | summary of the moving image reproduction player which concerns on 1st Embodiment. 第1の実施形態に係る動画再生プレイヤの動作モードの遷移を例示する概念図である。It is a conceptual diagram which illustrates the transition of the operation mode of the moving image reproduction player which concerns on 1st Embodiment. 第1の実施形態に係る動画再生プレイヤのガイド表示モードを例示する概念図である。It is a conceptual diagram which illustrates the guide display mode of the moving image reproduction player which concerns on 1st Embodiment. ガイド表示モードにおける操作例を示す概念図である。It is a conceptual diagram which shows the example of operation in guide display mode. タッチパネル上の座標と各ゾーンとの関係を例示する概念図である。It is a conceptual diagram which illustrates the relationship between the coordinate on a touch panel, and each zone. スケール値の算出方法を示すフローチャートである。It is a flowchart which shows the calculation method of a scale value. 再生モードにおけるプログラムのフローチャートである。It is a flowchart of the program in reproduction | regeneration mode. ガイド表示モードにおけるプログラムのフローチャートである。It is a flowchart of the program in guide display mode. ガイド表示モードにおけるスケールがY座標の値に非線形に設定されるケースを例示する概念図である。It is a conceptual diagram which illustrates the case where the scale in guide display mode is set nonlinearly to the value of a Y coordinate. 第2の実施形態に係るガイド表示モードにおけるスケールがY座標の値に線形に設定されるケースを例示する概念図である。It is a conceptual diagram which illustrates the case where the scale in the guide display mode which concerns on 2nd Embodiment is set to the value of a Y coordinate linearly. 第3の実施形態に係るガイド表示モードにおけるドラッグ操作を例示する概念図である。It is a conceptual diagram which illustrates drag operation in the guide display mode which concerns on 3rd Embodiment. 第3の実施形態に係るガイド表示モードにおけるプログラムのフローチャートである。It is a flowchart of the program in the guide display mode which concerns on 3rd Embodiment. 第4の実施形態に係るパーソナルコンピュータのブロック図である。It is a block diagram of the personal computer which concerns on 4th Embodiment. 第4の実施形態に係るパーソナルコンピュータの外観を例示する概念図である。It is a conceptual diagram which illustrates the external appearance of the personal computer which concerns on 4th Embodiment. 第6の実施形態に係る画面表示されているスケールを可変に設定する様子を例示する概念図である。It is a conceptual diagram which illustrates a mode that the scale currently displayed on the screen which concerns on 6th Embodiment is variably set.

Claims (15)

タッチセンサを有する表示部と、
一連の画像データを再生し、前記表示部に表示する表示制御手段と、
前記タッチセンサに対するタッチ操作を検出する検出手段と、
前記一連の画像データを前記表示部に表示しているときに、前記検出手段がドラッグ操作を検出した場合に、前記ドラッグ操作の方向および移動量に応じて、前記一連の画像データの順方向送り処理又は逆方向送り処理を行う処理手段とを有し、
前記処理手段は、前記ドラッグ操作において、前記タッチセンサの縦方向のタッチ位置に応じて、前記タッチセンサの横方向の移動量に対する前記一連の画像データの送り量を異ならしめており、
前記ドラッグ操作が前記タッチセンサの斜め方向に行われた場合には、前記処理手段は、前記ドラッグ操作の途中に、前記縦方向のタッチ位置に応じて、前記横方向の移動量に対する前記一連の画像データの送り量を変更することを特徴とする再生装置。
A display unit having a touch sensor;
Display control means for reproducing a series of image data and displaying the data on the display unit;
Detecting means for detecting a touch operation on the touch sensor;
When the detection unit detects a drag operation while displaying the series of image data on the display unit, the series of image data is forward-forwarded according to the direction and movement amount of the drag operation. Processing means for performing processing or reverse feed processing,
In the drag operation, the processing means makes the series of image data feed amounts different from the lateral movement amount of the touch sensor according to the vertical touch position of the touch sensor,
When the drag operation is performed in an oblique direction of the touch sensor, the processing unit performs the series of movements with respect to the lateral movement amount according to the vertical touch position during the drag operation. A reproduction apparatus characterized by changing a feed amount of image data.
前記表示制御手段は更に、前記縦方向のタッチ位置に応じた、通常の移動量に対する送り量の変化の程度を示す情報を前記表示部に表示することを特徴とする請求項1に記載の再生装置。   2. The reproduction according to claim 1, wherein the display control unit further displays, on the display unit, information indicating a degree of change in a feed amount with respect to a normal movement amount according to the vertical touch position. apparatus. 前記横方向の移動量に対する前記一連の画像データの送り量は、前記縦方向のタッチ位置に応じて段階的に変化し、前記縦方向のタッチ位置の変化の方向に沿って順番に細かな送り処理が可能となるように変化することを特徴とする請求項1又は2に記載の再生装置。   The feed amount of the series of image data with respect to the lateral movement amount changes stepwise according to the vertical touch position, and is sent in order along the direction of change of the vertical touch position. The playback apparatus according to claim 1, wherein the playback apparatus changes so as to enable processing. 前記一連の画像データは動画像データであって、前記縦方向のタッチ位置に応じて、前記横方向の移動量に対する時間の経過量が異なることを特徴とする請求項1乃至3のいずれか1項に記載の再生装置。   The series of image data is moving image data, and the amount of elapsed time with respect to the amount of movement in the horizontal direction differs according to the touch position in the vertical direction. The playback device according to item. 前記一連の画像データは複数の静止画像データであって、前記縦方向のタッチ位置に応じて、前記横方向の移動量に対する画像送りの画像数が異なることを特徴とする請求項1乃至3のいずれか1項に記載の再生装置。   The series of image data is a plurality of still image data, and the number of images to be fed with respect to the amount of movement in the horizontal direction differs according to the touch position in the vertical direction. The playback apparatus according to any one of the above. 前記一連の画像データを再生している途中で、前記検出手段が前記タッチセンサへのタップ操作を検出すると、前記一連の画像データの再生を制御するための複数のボタンとスライドバーとが前記表示部にあらわれることを特徴とする請求項1乃至5のいずれか1項に記載の再生装置。   When the detection means detects a tap operation on the touch sensor while the series of image data is being reproduced, a plurality of buttons and a slide bar for controlling the reproduction of the series of image data are displayed on the display. The reproduction apparatus according to claim 1, wherein the reproduction apparatus is displayed in a unit. さらに、音声を出力するイヤホンジャックを備えることを特徴とする請求項1乃至6のいずれか1項に記載の再生装置。   The playback apparatus according to claim 1, further comprising an earphone jack that outputs sound. タッチセンサに対するタッチ操作を検出する検出手段と、
前記検出手段が検出した操作に基づき、データの総再生時間の中の再生位置を変える制御を行う制御手段であって、前記データを再生しているときに、前記検出手段がドラッグ操作を検出した場合に、前記ドラッグ操作の方向および移動量に応じて、前記データの再生位置を順方向又は逆方向に移動する制御手段とを有し、
前記制御手段は、前記ドラッグ操作において、前記タッチセンサの縦方向のタッチ位置に応じて、前記タッチセンサの横方向の移動量に対する前記データの再生位置の移動量を異ならしめており、
前記ドラッグ操作が前記タッチセンサの斜め方向に行われた場合には、前記制御手段は、前記ドラッグ操作の途中に、前記縦方向のタッチ位置に応じて、前記横方向の移動量に対する前記再生位置の移動量を変更することを特徴とする再生装置。
Detecting means for detecting a touch operation on the touch sensor;
Control means for performing control to change the reproduction position in the total reproduction time of data based on the operation detected by the detection means, and the detection means detects a drag operation when reproducing the data Control means for moving the reproduction position of the data in the forward direction or the reverse direction in accordance with the direction and amount of movement of the drag operation.
In the drag operation, the control means makes the movement amount of the data reproduction position different from the movement amount of the touch sensor in the horizontal direction according to the vertical touch position of the touch sensor,
When the drag operation is performed in an oblique direction of the touch sensor, the control unit determines the playback position with respect to the lateral movement amount according to the vertical touch position during the drag operation. A playback device characterized by changing the amount of movement of the player.
前記データは、音声データを有していることを特徴とする請求項8に記載の再生装置。   The playback apparatus according to claim 8, wherein the data includes audio data. タッチセンサを有する表示部と、
一連の画像データを再生し、前記表示部に表示する表示制御手段と、
前記タッチセンサに対するタッチ操作を検出する検出手段と、
前記一連の画像データを前記表示部に表示しているときに、前記検出手段がドラッグ操作を検出した場合に、前記ドラッグ操作の方向および移動量に応じて、前記一連の画像データの順方向送り処理又は逆方向送り処理を行う処理手段とを有し、
前記処理手段は、前記ドラッグ操作において、前記タッチセンサの横方向のタッチ位置に応じて、前記タッチセンサの縦方向の移動量に対する前記一連の画像データの送り量を異ならしめており、
前記ドラッグ操作が前記タッチセンサの斜め方向に行われた場合には、前記処理手段は、前記ドラッグ操作の途中に、前記横方向のタッチ位置に応じて、前記縦方向の移動量に対する前記一連の画像データの送り量を変更することを特徴とする再生装置。
A display unit having a touch sensor;
Display control means for reproducing a series of image data and displaying the data on the display unit;
Detecting means for detecting a touch operation on the touch sensor;
When the detection unit detects a drag operation while displaying the series of image data on the display unit, the series of image data is forward-forwarded according to the direction and movement amount of the drag operation. Processing means for performing processing or reverse feed processing,
The processing means, in the drag operation, varies the feed amount of the series of image data with respect to the vertical movement amount of the touch sensor in accordance with the horizontal touch position of the touch sensor.
When the drag operation is performed in an oblique direction of the touch sensor, the processing unit performs the series of movements with respect to the vertical movement amount according to the horizontal touch position during the drag operation. A reproduction apparatus characterized by changing a feed amount of image data.
タッチセンサに対するタッチ操作を検出する検出手段と、
前記検出手段が検出した操作に基づき、データの総再生時間の中の再生位置を変える制御を行う制御手段であって、前記データを再生しているときに、前記検出手段がドラッグ操作を検出した場合に、前記ドラッグ操作の方向および移動量に応じて、前記データの再生位置を順方向又は逆方向に移動する制御手段とを有し、
前記制御手段は、前記ドラッグ操作において、前記タッチセンサの横方向のタッチ位置に応じて、前記タッチセンサの縦方向の移動量に対する前記データの再生位置の移動量を異ならしめており、
前記ドラッグ操作が前記タッチセンサの斜め方向に行われた場合には、前記制御手段は、前記ドラッグ操作の途中に、前記横方向のタッチ位置に応じて、前記縦方向の移動量に対する前記再生位置の移動量を変更することを特徴とする再生装置。
Detecting means for detecting a touch operation on the touch sensor;
Control means for performing control to change the reproduction position in the total reproduction time of data based on the operation detected by the detection means, and the detection means detects a drag operation when reproducing the data Control means for moving the reproduction position of the data in the forward direction or the reverse direction in accordance with the direction and amount of movement of the drag operation.
In the drag operation, the control means makes the movement amount of the reproduction position of the data different from the movement amount of the touch sensor in the vertical direction according to the horizontal touch position of the touch sensor,
When the drag operation is performed in an oblique direction of the touch sensor, the control means determines the playback position relative to the vertical movement amount according to the horizontal touch position during the drag operation. A playback device characterized by changing the amount of movement of the player.
タッチセンサを有する表示部を備える再生装置による再生方法であって、
前記再生装置の表示制御手段が、一連の画像データを再生し、前記表示部に表示する表示制御工程と、
前記再生装置の検出手段が、前記タッチセンサに対するタッチ操作を検出する検出工程と、
前記一連の画像データを前記表示部に表示しているときに、前記検出工程でドラッグ操作を検出した場合に、前記再生装置の処理手段が、前記ドラッグ操作の方向および移動量に応じて、前記一連の画像データの順方向送り処理又は逆方向送り処理を行う処理工程とを有し、
前記処理工程では、前記ドラッグ操作において、前記タッチセンサの縦方向のタッチ位置に応じて、前記タッチセンサの横方向の移動量に対する前記一連の画像データの送り量を異ならしめており、
前記ドラッグ操作が前記タッチセンサの斜め方向に行われた場合には、前記処理工程では、前記ドラッグ操作の途中に、前記縦方向のタッチ位置に応じて、前記横方向の移動量に対する前記一連の画像データの送り量を変更することを特徴とする再生方法。
A playback method by a playback device including a display unit having a touch sensor,
A display control step in which the display control means of the reproduction device reproduces a series of image data and displays the data on the display unit;
A detecting step in which the detecting means of the playback device detects a touch operation on the touch sensor;
When a drag operation is detected in the detection step when the series of image data is displayed on the display unit, the processing unit of the playback device determines the drag operation according to the direction and the amount of movement of the drag operation. A processing step for performing forward feed processing or reverse feed processing of a series of image data,
In the processing step, in the drag operation, according to the vertical touch position of the touch sensor, the series of image data feed amount with respect to the horizontal movement amount of the touch sensor is made different,
When the drag operation is performed in an oblique direction of the touch sensor, in the processing step, during the drag operation, the series of the movement amounts in the horizontal direction according to the touch position in the vertical direction. A reproduction method characterized by changing a feed amount of image data.
再生装置による再生方法であって、
前記再生装置の検出手段が、タッチセンサに対するタッチ操作を検出する検出工程と、 前記再生装置の制御手段が、前記検出工程で検出した操作に基づき、データの総再生時間の中の再生位置を変える制御を行う制御工程であって、前記データを再生しているときに、前記検出工程でドラッグ操作を検出した場合に、前記ドラッグ操作の方向および移動量に応じて、前記データの再生位置を順方向又は逆方向に移動する制御工程とを有し、
前記制御工程では、前記ドラッグ操作において、前記タッチセンサの縦方向のタッチ位置に応じて、前記タッチセンサの横方向の移動量に対する前記データの再生位置の移動量を異ならしめており、
前記ドラッグ操作が前記タッチセンサの斜め方向に行われた場合には、前記制御工程では、前記ドラッグ操作の途中に、前記縦方向のタッチ位置に応じて、前記横方向の移動量に対する前記再生位置の移動量を変更することを特徴とする再生方法。
A playback method by a playback device,
A detection step in which the detection unit of the playback device detects a touch operation on the touch sensor, and a playback position in the total playback time of the data is changed based on the operation detected by the control unit of the playback device in the detection step. A control step of performing control, wherein when the data is being played back and the drag operation is detected in the detection step, the playback position of the data is ordered according to the direction and amount of movement of the drag operation. And a control process that moves in the direction or the reverse direction,
In the control step, in the drag operation, the movement amount of the reproduction position of the data is different from the movement amount of the touch sensor in the horizontal direction according to the vertical touch position of the touch sensor.
When the drag operation is performed in an oblique direction of the touch sensor, in the control step, during the drag operation, the reproduction position with respect to the lateral movement amount according to the vertical touch position. A reproduction method characterized by changing a movement amount of the video.
タッチセンサを有する表示部を備える再生装置による再生方法であって、
前記再生装置の表示制御手段が、一連の画像データを再生し、前記表示部に表示する表示制御工程と、
前記再生装置の検出手段が、前記タッチセンサに対するタッチ操作を検出する検出工程と、
前記一連の画像データを前記表示部に表示しているときに、前記検出工程でドラッグ操作を検出した場合に、前記再生装置の処理手段が、前記ドラッグ操作の方向および移動量に応じて、前記一連の画像データの順方向送り処理又は逆方向送り処理を行う処理工程とを有し、
前記処理工程では、前記ドラッグ操作において、前記タッチセンサの横方向のタッチ位置に応じて、前記タッチセンサの縦方向の移動量に対する前記一連の画像データの送り量を異ならしめており、
前記ドラッグ操作が前記タッチセンサの斜め方向に行われた場合には、前記処理工程では、前記ドラッグ操作の途中に、前記横方向のタッチ位置に応じて、前記縦方向の移動量に対する前記一連の画像データの送り量を変更することを特徴とする再生方法。
A playback method by a playback device including a display unit having a touch sensor,
A display control step in which the display control means of the reproduction device reproduces a series of image data and displays the data on the display unit;
A detecting step in which the detecting means of the playback device detects a touch operation on the touch sensor;
When a drag operation is detected in the detection step when the series of image data is displayed on the display unit, the processing unit of the playback device determines the drag operation according to the direction and the amount of movement of the drag operation. A processing step for performing forward feed processing or reverse feed processing of a series of image data,
In the processing step, in the drag operation, according to the touch position in the lateral direction of the touch sensor, the feed amount of the series of image data with respect to the vertical movement amount of the touch sensor is made different,
When the drag operation is performed in an oblique direction of the touch sensor, in the processing step, the series of the movement amounts in the vertical direction with respect to the movement amount in the vertical direction according to the touch position in the horizontal direction during the drag operation. A reproduction method characterized by changing a feed amount of image data.
再生装置による再生方法であって、
前記再生装置の検出手段が、タッチセンサに対するタッチ操作を検出する検出工程と、 前記再生装置の制御手段が、前記検出工程で検出した操作に基づき、データの総再生時間の中の再生位置を変える制御を行う制御工程であって、前記データを再生しているときに、前記検出工程でドラッグ操作を検出した場合に、前記ドラッグ操作の方向および移動量に応じて、前記データの再生位置を順方向又は逆方向に移動する制御工程とを有し、
前記制御工程では、前記ドラッグ操作において、前記タッチセンサの横方向のタッチ位置に応じて、前記タッチセンサの縦方向の移動量に対する前記データの再生位置の移動量を異ならしめており、
前記ドラッグ操作が前記タッチセンサの斜め方向に行われた場合には、前記制御工程では、前記ドラッグ操作の途中に、前記横方向のタッチ位置に応じて、前記縦方向の移動量に対する前記再生位置の移動量を変更することを特徴とする再生方法。
A playback method by a playback device,
A detection step in which the detection unit of the playback device detects a touch operation on the touch sensor, and a playback position in the total playback time of the data is changed based on the operation detected by the control unit of the playback device in the detection step. A control step of performing control, wherein when the data is being played back and the drag operation is detected in the detection step, the playback position of the data is ordered according to the direction and amount of movement of the drag operation. And a control process that moves in the direction or the reverse direction,
In the control step, in the drag operation, the moving amount of the reproduction position of the data with respect to the moving amount of the touch sensor in the vertical direction is made different according to the touch position in the horizontal direction of the touch sensor,
When the drag operation is performed in an oblique direction of the touch sensor, in the control step, the reproduction position with respect to the vertical movement amount according to the horizontal touch position during the drag operation. A reproduction method characterized by changing a movement amount of the video.
JP2013084335A 2013-04-12 2013-04-12 Playback apparatus and playback method Active JP5475905B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013084335A JP5475905B2 (en) 2013-04-12 2013-04-12 Playback apparatus and playback method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013084335A JP5475905B2 (en) 2013-04-12 2013-04-12 Playback apparatus and playback method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009020740A Division JP5261217B2 (en) 2009-01-30 2009-01-30 Display device and display method

Publications (2)

Publication Number Publication Date
JP2013175214A true JP2013175214A (en) 2013-09-05
JP5475905B2 JP5475905B2 (en) 2014-04-16

Family

ID=49267997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013084335A Active JP5475905B2 (en) 2013-04-12 2013-04-12 Playback apparatus and playback method

Country Status (1)

Country Link
JP (1) JP5475905B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9176683B2 (en) 2014-01-27 2015-11-03 Brother Kogyo Kabushiki Kaisha Image information processing method, image information processing apparatus and computer-readable recording medium storing image information processing program
JP2017004274A (en) * 2015-06-11 2017-01-05 カシオ計算機株式会社 Display apparatus, display method and program
EP3340607A1 (en) 2016-12-26 2018-06-27 Canon Kabushiki Kaisha Display control apparatus, display control method, and storage medium
US10162516B2 (en) 2015-05-22 2018-12-25 Casio Computer Co., Ltd. Display apparatus for displaying images
US11169684B2 (en) 2017-02-15 2021-11-09 Canon Kabushiki Kaisha Display control apparatuses, control methods therefor, and computer readable storage medium
US11442613B2 (en) 2019-10-07 2022-09-13 Canon Kabushiki Kaisha Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033695A (en) * 2006-07-29 2008-02-14 Sony Corp Display content scroll method, scroll device and scroll program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033695A (en) * 2006-07-29 2008-02-14 Sony Corp Display content scroll method, scroll device and scroll program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9176683B2 (en) 2014-01-27 2015-11-03 Brother Kogyo Kabushiki Kaisha Image information processing method, image information processing apparatus and computer-readable recording medium storing image information processing program
US10162516B2 (en) 2015-05-22 2018-12-25 Casio Computer Co., Ltd. Display apparatus for displaying images
US10732830B2 (en) 2015-05-22 2020-08-04 Casio Computer Co., Ltd. Display apparatus for displaying images
JP2017004274A (en) * 2015-06-11 2017-01-05 カシオ計算機株式会社 Display apparatus, display method and program
US10353568B2 (en) 2015-06-11 2019-07-16 Casio Computer Co., Ltd. Display apparatus for controlling display of images based on detected touch operations
EP3340607A1 (en) 2016-12-26 2018-06-27 Canon Kabushiki Kaisha Display control apparatus, display control method, and storage medium
US10949015B2 (en) 2016-12-26 2021-03-16 Canon Kabushiki Kaisha Display control apparatus, display control method, and storage medium
US11169684B2 (en) 2017-02-15 2021-11-09 Canon Kabushiki Kaisha Display control apparatuses, control methods therefor, and computer readable storage medium
US11442613B2 (en) 2019-10-07 2022-09-13 Canon Kabushiki Kaisha Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium

Also Published As

Publication number Publication date
JP5475905B2 (en) 2014-04-16

Similar Documents

Publication Publication Date Title
JP5261217B2 (en) Display device and display method
US10664120B1 (en) Media element navigation using a virtual jog wheel
JP6538223B2 (en) Device, method and graphical user interface for navigating media content
JP5475905B2 (en) Playback apparatus and playback method
US9122388B2 (en) Method and apparatus for controlling touch screen using timeline bar, recording medium with program for the same recorded therein, and user terminal having the same
US20180225035A1 (en) Display control device, display control method, and program
US8217905B2 (en) Method and apparatus for touchscreen based user interface interaction
US20070252822A1 (en) Apparatus, method, and medium for providing area division unit having touch function
CN110658972B (en) Information processing apparatus, information processing method, and computer readable medium
US20130067332A1 (en) Media seek bar
JP2013539578A (en) Content reproduction method and apparatus
EP2860734A1 (en) Method and apparatus for media searching using a graphical user interface
US20070146339A1 (en) Mobile apparatus for providing user interface and method and medium for executing functions using the user interface
CN107077290A (en) For the apparatus and method by using row interactive controlling content
JP2009043225A (en) Animation reproduction program
JP5725767B2 (en) Information processing apparatus and control method thereof
JP2009245012A (en) Selection display device, content reproducing device, program, and selection display method
JP6334125B2 (en) Display control program, display control device, display control system, and display control method
JP2011113469A (en) Touch panel processing device, touch panel processing method, and program
KR101352201B1 (en) Apparatus and method for controlling media player of mdia file
JP6273118B2 (en) Information processing device
EP3206206B1 (en) Moving picture playback method, moving picture playback program, and moving picture playback apparatus
US20140075391A1 (en) Display control device, display control system, storing medium, and display method
JP6287320B2 (en) Image processing apparatus and image processing program
JP2018085150A (en) Electronic device and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140206

R151 Written notification of patent or utility model registration

Ref document number: 5475905

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151