JP5515752B2 - Display processing apparatus, display processing method, and display processing program - Google Patents

Display processing apparatus, display processing method, and display processing program Download PDF

Info

Publication number
JP5515752B2
JP5515752B2 JP2010003284A JP2010003284A JP5515752B2 JP 5515752 B2 JP5515752 B2 JP 5515752B2 JP 2010003284 A JP2010003284 A JP 2010003284A JP 2010003284 A JP2010003284 A JP 2010003284A JP 5515752 B2 JP5515752 B2 JP 5515752B2
Authority
JP
Japan
Prior art keywords
image
display
user
unit
enlarged
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010003284A
Other languages
Japanese (ja)
Other versions
JP2011142589A5 (en
JP2011142589A (en
Inventor
直隆 上原
孝行 小金
純人 篠原
祐人 布川
哲也 半田
公靖 水野
岳浩 相原
一志 雨谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010003284A priority Critical patent/JP5515752B2/en
Publication of JP2011142589A publication Critical patent/JP2011142589A/en
Publication of JP2011142589A5 publication Critical patent/JP2011142589A5/en
Application granted granted Critical
Publication of JP5515752B2 publication Critical patent/JP5515752B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、複数の画像を切り換えて表示部に表示する表示処理装置、表示処理方法及び表示処理プログラムに関する。 The present invention relates to a display processing apparatus , a display processing method, and a display processing program that switch a plurality of images and display them on a display unit.

従来、タッチパネル画面上に表示された道路地図において、ユーザが画面上に表示されたスイッチ画像をタッチした状態でスクロール操作することにより、ユーザの操作に応じて道路地図がスクロールするように画像を表示するナビゲーション装置がある(例えば、特許文献1参照)。   Conventionally, in a road map displayed on a touch panel screen, an image is displayed so that the road map scrolls according to the user's operation by performing a scroll operation while the user touches the switch image displayed on the screen. There is a navigation device (see, for example, Patent Document 1).

特開2004−117830号公報JP 2004-117830 A

しかし、特許文献1に記載のナビゲーション装置では、画面上に表示された領域の画像をキーやアイコンによりスクロール操作することにより、その領域近辺の領域の画像を表示しているに過ぎない。従って、このようなスクロール操作により特定される領域の画像が表示される装置は、ユーザが予め想定できる領域の画像を表示するものであり、ありきたりなものであるという印象をユーザに与えるという問題がある。   However, the navigation device described in Patent Document 1 merely displays an image of an area in the vicinity of the area by scrolling the image of the area displayed on the screen using keys or icons. Therefore, a device that displays an image of an area specified by such a scrolling operation displays an image of an area that can be assumed in advance by the user, and gives the user the impression that it is commonplace. There is.

本発明はかかる問題点に鑑みてなされたものであって、ユーザに新しい印象を与えることが可能な表示処理装置、表示処理方法及び表示処理プログラムを提供することを目的とする。 The present invention has been made in view of such problems, and an object thereof is to provide a display processing device , a display processing method, and a display processing program capable of giving a new impression to a user.

上記目的を達成するため、本発明の第1の観点に係る表示処理装置は、
画像を表示する表示処理装置であって、
ユーザによる第1の操作を受け付ける第1操作部と、
前記第1操作部が前記ユーザによる前記第1の操作を受け付けている間に、前記ユーザによる第2の操作を受け付ける第2操作部と、
複数の画像を記憶する記憶手段と、
前記画像の特定領域を拡大した拡大画像を生成して表示する拡大画像生成手段と、
前記第1操作部が受け付けている前記ユーザによる前記第1の操作により、前記記憶手段に記憶された前記複数の画像から1つの画像を順次特定する第1命令実行手段と、
前記第1命令実行手段が特定している前記画像において、前記第2操作部が受け付けている前記ユーザによる前記第2の操作に対応する位置を順次特定し、前記第1命令実行手段が前記画像を順次特定している間に、前記第1命令実行手段が特定している画像において、前記第2の操作により特定した位置に対応する領域を前記拡大画像生成手段により拡大表示する第2命令実行手段と、
を備えることを特徴とする。
In order to achieve the above object, a display processing apparatus according to the first aspect of the present invention provides:
A display processing device for displaying an image,
A first operation unit for receiving a first operation by a user;
A second operation unit that accepts a second operation by the user while the first operation unit accepts the first operation by the user;
Storage means for storing a plurality of images;
An enlarged image generating means for generating and displaying an enlarged image obtained by enlarging a specific area of the image;
First command execution means for sequentially specifying one image from the plurality of images stored in the storage means by the first operation by the user accepted by the first operation section;
In the image specified by the first command execution means, the position corresponding to the second operation by the user accepted by the second operation unit is sequentially specified, and the first command execution means is the image. Execution of a second command to enlarge and display the region corresponding to the position specified by the second operation in the image specified by the first command execution means while the images are specified sequentially. Means,
It is characterized by providing.

上記目的を達成するため、本発明の第2の観点に係る表示処理方法は、
画像を表示する表示処理装置において、
ユーザによる第1の操作を受け付ける第1操作ステップと、
前記第1操作ステップが前記ユーザによる前記第1の操作を受け付けている間に、前記ユーザによる第2の操作を受け付ける第2操作ステップと、
複数の画像を記憶する記憶ステップと、
前記画像の特定領域を拡大した拡大画像を生成して表示する拡大画像生成ステップと、
前記第1操作ステップが受け付けている前記ユーザによる前記第1の操作により、前記記憶ステップで記憶された前記複数の画像から1つの画像を順次特定する第1命令実行ステップと、
前記第1命令実行ステップが特定している前記画像において、前記第2操作ステップが受け付けている前記ユーザによる前記第2の操作に対応する位置を順次特定し、前記第1命令実行ステップが前記画像を順次特定している間に、前記第1命令実行ステップが特定している画像において、前記第2の操作により特定した位置に対応する領域を前記拡大画像生成ステップにより拡大表示する第2命令実行ステップと、
を備えることを特徴とする。
In order to achieve the above object, a display processing method according to the second aspect of the present invention includes:
In a display processing device that displays an image,
A first operation step for receiving a first operation by a user;
A second operation step for accepting a second operation by the user while the first operation step accepts the first operation by the user;
A storage step for storing a plurality of images;
An enlarged image generating step for generating and displaying an enlarged image obtained by enlarging a specific area of the image;
A first command execution step of sequentially specifying one image from the plurality of images stored in the storage step by the first operation by the user accepted by the first operation step;
In the image specified by the first command execution step, a position corresponding to the second operation by the user accepted by the second operation step is sequentially specified, and the first command execution step is performed by the image. In the image specified by the first command execution step, the second command execution for enlarging and displaying the region corresponding to the position specified by the second operation is performed by the enlarged image generation step. Steps,
It is characterized by providing.

上記目的を達成するため、本発明の第3の観点に係る表示処理プログラムは、
ユーザによる第1の操作を受け付ける第1操作部と、前記第1操作部が前記ユーザによる前記第1の操作を受け付けている間に、前記ユーザによる第2の操作を受け付ける第2操作部と、を備えるコンピュータを、
複数の画像を記憶する記憶手段、
前記画像の特定領域を拡大した拡大画像を生成して表示する拡大画像生成手段、
前記第1操作部が受け付けている前記ユーザによる前記第1の操作により、前記記憶手段に記憶された前記複数の画像から1つの画像を順次特定する第1命令実行手段、
前記第1命令実行手段が特定している前記画像において、前記第2操作部が受け付けている前記ユーザによる前記第2の操作に対応する位置を順次特定し、前記第1命令実行手段が前記画像を順次特定している間に、前記第1命令実行手段が特定している画像において、前記第2の操作により特定した位置に対応する領域を前記拡大画像生成手段により拡大表示する第2命令実行手段、
として機能させることを特徴とする。
In order to achieve the above object, a display processing program according to the third aspect of the present invention provides:
A first operation unit that accepts a first operation by a user; a second operation unit that accepts a second operation by the user while the first operation unit accepts the first operation by the user; the Bei obtain computer,
Storage means for storing a plurality of images;
An enlarged image generating means for generating and displaying an enlarged image obtained by enlarging a specific area of the image;
First command execution means for sequentially specifying one image from the plurality of images stored in the storage means by the first operation by the user accepted by the first operation section;
In the image specified by the first command execution means, the position corresponding to the second operation by the user accepted by the second operation unit is sequentially specified, and the first command execution means is the image. Execution of a second command to enlarge and display the region corresponding to the position specified by the second operation in the image specified by the first command execution means while the images are specified sequentially. means,
It is made to function as.

本発明によれば、ユーザに新しい印象を与えることが可能な表示処理装置、表示処理方法及び表示処理プログラムを提供できる。 According to the present invention, it is possible to provide a display processing device , a display processing method, and a display processing program that can give a new impression to a user.

本発明の実施形態1に係る表示処理装置の各部の機能を示すブロック図である。It is a block diagram which shows the function of each part of the display processing apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る表示処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the display processing apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る表示処理装置の概略外観図である。1 is a schematic external view of a display processing apparatus according to Embodiment 1 of the present invention. 実施形態1に係る制御部による表示制御処理の動作の一例を示すフローチャートである。5 is a flowchart illustrating an example of an operation of display control processing by a control unit according to the first embodiment. 実施形態1に係る制御部による拡大画像生成処理の動作の一例を示すフローチャートである。6 is a flowchart illustrating an example of an operation of an enlarged image generation process performed by a control unit according to the first embodiment. 表示画像DBの一例を示す図である。It is a figure which shows an example of display image DB. 特定用センシング領域を説明するための図である。It is a figure for demonstrating the sensing area for identification. (a)は拡大領域の特定方法を説明するための図、(b)は、拡大画像を表す図である。(A) is a figure for demonstrating the identification method of an enlarged area, (b) is a figure showing an enlarged image. 拡大領域を移動させる方法を説明するための図である。It is a figure for demonstrating the method to move an expansion area | region. (a)〜(c)は、拡大領域を移動させる方法を説明するための図、(d)〜(f)は、拡大画像を表すである。(A)-(c) is a figure for demonstrating the method to move an enlarged area, (d)-(f) represents an enlarged image. 本発明の実施形態2に係る表示処理装置の各部の機能を示すブロック図である。It is a block diagram which shows the function of each part of the display processing apparatus which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係る表示処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the display processing apparatus which concerns on Embodiment 2 of this invention. 実施形態2に係る制御部による拡大画像生成処理の動作の一例を示すフローチャートである。10 is a flowchart illustrating an example of an operation of enlarged image generation processing by a control unit according to the second embodiment. (a)及び(b)は拡大領域を移動させる方法を説明するための図である。(A) And (b) is a figure for demonstrating the method to move an expansion area | region.

以下に、本発明の実施形態に係る表示処理装置100について説明する。以下では、本発明の実施形態に係る表示処理装置100として、デジタル写真等を表示するデジタルフォトスタンドを例として説明しているが、これに限られず、例えばデジタルカメラやパーソナルコンピュータであってもよい。   Below, the display processing apparatus 100 which concerns on embodiment of this invention is demonstrated. In the following, a digital photo stand that displays a digital photograph or the like is described as an example of the display processing apparatus 100 according to the embodiment of the present invention. However, the display processing apparatus 100 is not limited thereto, and may be a digital camera or a personal computer, for example. .

(実施形態1)
まず、実施形態1に係る表示処理装置100の構成を図1及び図2を参照して説明する。表示処理装置100は、図1に示すように、記憶部110と、操作部120と、表示部130と、読出・書込部140と、制御部150と、を備える。
(Embodiment 1)
First, the configuration of the display processing apparatus 100 according to the first embodiment will be described with reference to FIGS. 1 and 2. As illustrated in FIG. 1, the display processing apparatus 100 includes a storage unit 110, an operation unit 120, a display unit 130, a reading / writing unit 140, and a control unit 150.

記憶部110は、制御部150が処理中に使用する又は生成したデータ(データベース等を含む)や、制御部150が読み出した画像データ等を適宜記憶する。記憶部110は、例えば、二次記憶装置111によって実現される。二次記憶装置111には、制御プログラム112、表示画像DB(データベース)113等が記録される。制御プログラム112、表示画像DB113等のプログラムやデータは、CPU(Central Processing Unit)151によって一次記憶装置152に読み出されて、CPU151によって使用、参照される。二次記憶装置111は、ハードディスク、フラッシュメモリ等の記憶装置によって構成される。   The storage unit 110 appropriately stores data (including a database and the like) used or generated by the control unit 150 during processing, image data read by the control unit 150, and the like. The storage unit 110 is realized by the secondary storage device 111, for example. In the secondary storage device 111, a control program 112, a display image DB (database) 113, and the like are recorded. Programs and data such as the control program 112 and the display image DB 113 are read out to a primary storage device 152 by a CPU (Central Processing Unit) 151 and used and referenced by the CPU 151. The secondary storage device 111 is configured by a storage device such as a hard disk or a flash memory.

操作部120は、ユーザの操作を受け付け、受け付けた操作に応じた操作データ(操作情報)を制御部150に出力する。操作部120は、ユーザによる、表示部130に表示されている画像から切り換えられて表示される画像を特定する操作を受け付ける第1操作部120aと、ユーザによる後述する拡大領域を特定するための操作を受け付ける第2操作部120bと、を含む。第1操作部120aは、例えば、図2に示す接触式センサ123によって実現される。また、第2操作部120bは、例えば、図2に示す接触式センサ121、122によって実現される。   The operation unit 120 receives a user operation and outputs operation data (operation information) corresponding to the received operation to the control unit 150. The operation unit 120 includes a first operation unit 120a that accepts an operation for specifying an image displayed by being switched from an image displayed on the display unit 130 by a user, and an operation for specifying an enlargement area described later by the user. And a second operation unit 120b for receiving. The first operation unit 120a is realized by, for example, the contact sensor 123 shown in FIG. Moreover, the 2nd operation part 120b is implement | achieved by the contact-type sensors 121 and 122 shown in FIG. 2, for example.

接触式センサ121〜123は、例えば、図3に示すように表示部130の枠の長手方向(横方向)又は短手方向(縦方向)の辺に沿って設けられた、例えば静電容量式、感圧式等のタッチセンサである。接触式センサ121〜123は、ユーザの接触式センサ121〜123に対するスライド操作における接触位置を検出するための領域であるセンシング領域121a〜123aを有する。ここで、以下の記載において、「スライド操作」とは、ユーザが自身の指等をセンシング領域121a、122a、123aに接触させた状態で移動させる操作をいうものとする。ユーザがセンシング領域121a〜123a上をスライド操作すると、接触式センサ121〜123はセンシング領域121a〜123aにおける、ユーザの指等が接触した位置を示す操作情報を出力する。接触式センサ121のセンシング領域121aは、表示部130の表示パネル132の長手方向の縁に隣接して設けられる。また、接触式センサ122のセンシング領域122aは、表示部130の表示パネル132の短手方向の縁に隣接して設けられる。また、接触式センサ123のセンシング領域123aは、表示部130の表示パネル132の長手方向の縁であって、センシング領域121aが隣接する縁と対向する縁に隣接して設けられる。   For example, as shown in FIG. 3, the contact sensors 121 to 123 are provided along, for example, a side in the longitudinal direction (lateral direction) or the lateral direction (vertical direction) of the frame of the display unit 130. It is a pressure sensor type touch sensor. The contact sensors 121 to 123 include sensing areas 121a to 123a that are areas for detecting a contact position in a slide operation on the contact sensors 121 to 123 by the user. Here, in the following description, the “slide operation” refers to an operation in which the user moves his / her finger or the like in contact with the sensing areas 121a, 122a, 123a. When the user performs a sliding operation on the sensing areas 121a to 123a, the contact sensors 121 to 123 output operation information indicating positions where the user's fingers or the like are in contact in the sensing areas 121a to 123a. The sensing area 121 a of the contact sensor 121 is provided adjacent to the longitudinal edge of the display panel 132 of the display unit 130. The sensing area 122a of the contact sensor 122 is provided adjacent to the edge of the display panel 132 of the display unit 130 in the short direction. In addition, the sensing area 123a of the contact sensor 123 is an edge in the longitudinal direction of the display panel 132 of the display unit 130, and is provided adjacent to an edge opposite to the edge adjacent to the sensing area 121a.

また、センシング領域121aにおける位置と、表示部130に表示される画像における、センシング領域121aの長手方向の位置と、が互いに一致するように、予めその対応関係が記憶部110に記録されているものとする。同様に、センシング領域122aにおける位置と、表示部130に表示される画像における、センシング領域122aの長手方向の位置と、が互いに一致するように、予めその対応関係が記憶部110に記録されているものとする。具体的には、例えば、図7に示すように、センシング領域121aの長手方向に沿ってX軸、センシング領域122aの長手方向に沿ってY軸、表示部130に表示されている画像における位置を表すためのx軸及びy軸が規定されているとする。このとき、センシング領域121aにおける位置X=Xは、表示部130に表示されている画像におけるx座標x=xに対応する。また、センシング領域122aにおける位置Y=Yは、表示部130に表示されている画像におけるy座標y=yに対応する。 In addition, the correspondence is recorded in advance in the storage unit 110 so that the position in the sensing area 121a and the position in the longitudinal direction of the sensing area 121a in the image displayed on the display unit 130 coincide with each other. And Similarly, the correspondence relationship is recorded in advance in the storage unit 110 so that the position in the sensing region 122a and the position in the longitudinal direction of the sensing region 122a in the image displayed on the display unit 130 coincide with each other. Shall. Specifically, for example, as shown in FIG. 7, the X axis along the longitudinal direction of the sensing region 121a, the Y axis along the longitudinal direction of the sensing region 122a, and the position in the image displayed on the display unit 130 are shown. Assume that an x-axis and a y-axis for representing are defined. At this time, the position X = X 1 in the sensing area 121 a corresponds to the x coordinate x = x 1 in the image displayed on the display unit 130. Further, the position Y = Y 1 in the sensing area 122 a corresponds to the y coordinate y = y 1 in the image displayed on the display unit 130.

また、センシング領域123aはさらに、図7に示すように、後述する表示制御処理において特定される表示画像データの数Nに対応する特定用センシング領域A〜Aを有する。特定用センシング領域A〜Aは、それぞれセンシング領域123aの長手方向について略等しい長さを有している。 In addition, as shown in FIG. 7, the sensing area 123 a further includes identifying sensing areas A 1 to A N corresponding to the number N of display image data identified in the display control process described later. Specifying sensing region A 1 to A N are respectively a length substantially equal the longitudinal direction of the sensing area 123a.

入力キー124は、ユーザからの押圧操作に応じたオン信号等を操作情報として出力する。入力キー124は、例えば、画像選択の終了に用いられる終了キー、表示画像の表示の開始及び停止に用いられる再生・停止キー等の1以上のキーによって構成される。   The input key 124 outputs an ON signal or the like corresponding to the pressing operation from the user as operation information. The input key 124 includes, for example, one or more keys such as an end key used to end image selection and a play / stop key used to start and stop display of a display image.

表示部130は、制御部150から出力される画像データに基づいて、画像、操作画面等を表示する。表示部130は、例えば、駆動回路131と表示パネル132とから実現される。駆動回路131は、CPU151から出力される画像データに従って表示パネル132を駆動し、表示パネル132に画像、操作画面等を表示させる。表示パネル132は、液晶パネル、有機EL(Electro Luminescence)パネル等によって構成される。   The display unit 130 displays an image, an operation screen, and the like based on the image data output from the control unit 150. The display unit 130 is realized by a drive circuit 131 and a display panel 132, for example. The drive circuit 131 drives the display panel 132 according to the image data output from the CPU 151 and causes the display panel 132 to display an image, an operation screen, and the like. The display panel 132 includes a liquid crystal panel, an organic EL (Electro Luminescence) panel, or the like.

読出・書込部140は、記憶媒体40に対してデータ(例えば画像データ)を読み書きする。読出・書込部140は、例えばメディアコントローラ141によって実現される。メディアコントローラ141は、メモリーカード41に対してデータを読み書きする。   The read / write unit 140 reads and writes data (for example, image data) with respect to the storage medium 40. The read / write unit 140 is realized by, for example, the media controller 141. The media controller 141 reads / writes data from / to the memory card 41.

記録媒体40は、各種のデータを記憶する。記録媒体40は、デジタルカメラが撮影した撮影画像(例えば、デジタル写真)を表すデータである画像データを記録する。記録媒体40は、フラッシュメモリ等から構成されるメモリーカード41によって実現される。   The recording medium 40 stores various data. The recording medium 40 records image data that is data representing a captured image (for example, a digital photograph) taken by a digital camera. The recording medium 40 is realized by a memory card 41 composed of a flash memory or the like.

制御部150は、表示処理装置100全体を制御する。制御部150は、表示画像特定部150aと、画像特定部150bと、位置特定部150cと、拡大画像生成部150dと、として機能する。   The control unit 150 controls the entire display processing apparatus 100. The control unit 150 functions as a display image specifying unit 150a, an image specifying unit 150b, a position specifying unit 150c, and an enlarged image generating unit 150d.

表示画像特定部150aは、記憶媒体40が記憶する複数の画像データを用いて、表示部130に出力する表示画像データを特定するものとして機能する。例えば、表示画像特定部150aは、操作部120が出力する操作情報に基づいて、記憶媒体40が記憶する複数の画像データの中から、表示部130に表示する画像(以下、表示画像という)を表す表示画像データを特定する。そして、表示画像特定部150aは、特定した表示画像データと、表示画像の表示順序とを対応付けて記憶する表示画像DB113を生成し、記憶部110に記録する。   The display image specifying unit 150a functions to specify display image data to be output to the display unit 130 using a plurality of image data stored in the storage medium 40. For example, the display image specifying unit 150a selects an image (hereinafter referred to as a display image) to be displayed on the display unit 130 from among a plurality of image data stored in the storage medium 40 based on the operation information output from the operation unit 120. The display image data to be represented is specified. Then, the display image specifying unit 150a generates the display image DB 113 that stores the specified display image data and the display order of the display images in association with each other, and records the display image DB 113 in the storage unit 110.

また、表示画像特定部150aは、特定した表示画像データの数だけセンシング領域123aを分割し、複数の特定用センシング領域を規定する。そして、表示画像特定部150aは、規定された複数の特定用センシング領域のそれぞれについて、センシング領域123aにおける位置を表示順序と対応付けて表示画像DB113に記録する。   Further, the display image specifying unit 150a divides the sensing area 123a by the number of specified display image data, and defines a plurality of specifying sensing areas. Then, the display image specifying unit 150a records the position in the sensing area 123a in the display image DB 113 in association with the display order for each of the specified plurality of specifying sensing areas.

ここで、表示画像DB113は、表示順序と、表示画像データと、センシング領域123aにおける特定用センシング領域の位置と、が対応付けて記録されているものである。図6に、表示画像特定部150aがN個の表示画像データを特定した場合に生成される表示画像DB113の一例を示す。図6の「aaa1」、「aaa2」、…、「aaaN」は、それぞれ表示画像データを示す。これらの表示画像データ「aaa1」、「aaa2」、…、「aaaN」が表示部130に出力されると、各表示画像データが表す表示画像が表示部130に表示される。なお、表示画像DB113には、表示画像データそのものが記録されていなくてもよく、例えば、表示画像データのID、表示画像データの記録場所(アドレス)等によって構成されるデータであってもよい。また、図6の「Z≦Z<Z」、「Z≦Z<Z」、…、「ZN−1≦Z≦Z」は、図7に示すようにセンシング領域123aの長手方向をZ軸として規定した場合における特定用センシング領域の位置を示す。 Here, in the display image DB 113, the display order, the display image data, and the position of the sensing area for specification in the sensing area 123a are recorded in association with each other. FIG. 6 shows an example of the display image DB 113 generated when the display image specifying unit 150a specifies N pieces of display image data. In FIG. 6, “aaa1”, “aaa2”,..., “AaaN” respectively indicate display image data. When these display image data “aaa1”, “aaa2”,..., “AaaN” are output to the display unit 130, the display image represented by each display image data is displayed on the display unit 130. Note that the display image data 113 does not have to be recorded in the display image DB 113. For example, the display image DB 113 may be data composed of an ID of the display image data, a recording location (address) of the display image data, and the like. Further, “Z 0 ≦ Z <Z 1 ”, “Z 1 ≦ Z <Z 2 ”,..., “Z N−1 ≦ Z ≦ Z N ” in FIG. The position of the sensing region for specification when the longitudinal direction is defined as the Z axis is shown.

画像特定部150bは、第1操作部120aが受け付けているユーザによるスライド操作により、表示画像DB113に記憶された複数の表示画像データから1つの表示画像データを順次特定するものとして機能する。具体的には、画像特定部150bは、ユーザの接触式センサ123に対するスライド操作により、接触式センサ123が出力する操作情報が示す接触位置に基づいて、表示画像DB113を参照して特定用センシング領域を順次特定し、その特定した特定用センシング領域に対応する表示画像データを順次特定する。   The image specifying unit 150b functions to sequentially specify one display image data from a plurality of display image data stored in the display image DB 113 by a slide operation by the user accepted by the first operation unit 120a. Specifically, the image specifying unit 150b refers to the display image DB 113 based on the contact position indicated by the operation information output by the contact sensor 123 by the user's slide operation on the contact sensor 123, and the sensing region for specification. Are sequentially identified, and display image data corresponding to the identified sensing area for identification is sequentially identified.

位置特定部150cは、画像特定部150bが表示画像データを順次特定している間に、画像特定部150bが特定している表示画像データが表す表示画像において、第2操作部120bが受け付けているユーザによるスライド操作に対応する位置を順次特定するものとして機能する。具体的には、位置特定部150cは、ユーザの接触式センサ123に対するスライド操作により画像特定部150bが順次特定している表示画像について、表示部130に拡大して表示する領域である拡大領域の位置を順次特定する。例えば、位置特定部150cは、画像特定部150bが順次特定している表示画像データが表す表示画像について、ユーザの接触式センサ121、122に対するスライド操作により、接触式センサ121、122が出力する操作情報が示す接触位置に基づいて、1つの点を拡大領域の中心点として特定する。   The position specifying unit 150c is received by the second operation unit 120b in the display image represented by the display image data specified by the image specifying unit 150b while the image specifying unit 150b sequentially specifies the display image data. It functions as one that sequentially specifies positions corresponding to the slide operation by the user. Specifically, the position specifying unit 150c enlarges an area to be displayed on the display unit 130 for the display images sequentially specified by the image specifying unit 150b by the user's sliding operation on the contact sensor 123. The position is specified sequentially. For example, the position specifying unit 150c performs operations that the contact sensors 121 and 122 output by the user's slide operation on the contact sensors 121 and 122 with respect to the display images represented by the display image data sequentially specified by the image specifying unit 150b. One point is specified as the center point of the enlarged region based on the contact position indicated by the information.

拡大画像生成部150dは、画像特定部150bが表示画像データを順次特定している間に、画像特定部150bが特定している表示画像データが表す表示画像において、位置特定部150cが特定した位置に対応する領域を拡大した拡大画像を生成して表示部130に表示するものとして機能する。具体的には、拡大画像生成部150dは、画像特定部150bが表示画像データを順次特定している間に、画像特定部150bが特定している表示画像データが表す表示画像において、位置特定部150cが特定した拡大領域の中心点を中心として所定の大きさを有する領域(例えば、横320ピクセル、縦240ピクセルの矩形領域)を拡大領域として特定する。そして特定した拡大領域内の画像を表示部130に拡大して表示するための拡大画像データを生成し、生成された拡大画像データを表示部130に出力する。   The magnified image generation unit 150d is a position specified by the position specifying unit 150c in the display image represented by the display image data specified by the image specifying unit 150b while the image specifying unit 150b sequentially specifies display image data. Functions to generate an enlarged image in which the area corresponding to is enlarged and display it on the display unit 130. Specifically, the enlarged image generation unit 150d is configured to display the position specifying unit in the display image represented by the display image data specified by the image specifying unit 150b while the image specifying unit 150b sequentially specifies the display image data. An area having a predetermined size centered on the center point of the enlarged area identified by 150c (for example, a rectangular area having horizontal 320 pixels and vertical 240 pixels) is specified as the enlarged area. Then, enlarged image data for enlarging and displaying the image in the specified enlarged area on the display unit 130 is generated, and the generated enlarged image data is output to the display unit 130.

制御部150は、例えば、CPU151と、一次記憶装置152とによって実現される。CPU151は、制御プログラム112に従って表示処理装置100全体を制御し、処理を実行する。制御プログラム112は、二次記憶装置111に記録され、一次記憶装置152に読み出される。CPU151は一次記憶装置152に読み出された制御プログラム112の指令に基づいて、制御部150の上述した各機能の処理を実行する。制御部150の機能の一部は、各種専用回路(例えばデータを圧縮するエンコーダ、データを伸長するデコーダ等)によって実現されてもよい。この場合、各種専用回路がCPU151の機能の一部を担う。   The control unit 150 is realized by the CPU 151 and the primary storage device 152, for example. The CPU 151 controls the entire display processing apparatus 100 according to the control program 112 and executes processing. The control program 112 is recorded in the secondary storage device 111 and read out to the primary storage device 152. The CPU 151 executes processing of each function described above of the control unit 150 based on the command of the control program 112 read to the primary storage device 152. A part of the function of the control unit 150 may be realized by various dedicated circuits (for example, an encoder that compresses data, a decoder that decompresses data, and the like). In this case, various dedicated circuits take part of the function of the CPU 151.

一次記憶装置152は、例えばRAM(Random Access Memory)によって構成され、CPU151のワーキングメモリ等として機能する。CPU151が処理中に使用するデータ及び生成されたデータは一次記憶装置152に一次記録される。また、CPU151に入出力されるデータは一次記憶装置152に一時記録される。   The primary storage device 152 is constituted by, for example, a RAM (Random Access Memory) and functions as a working memory of the CPU 151 or the like. Data used by the CPU 151 during processing and generated data are primarily recorded in the primary storage device 152. Data input / output to / from the CPU 151 is temporarily recorded in the primary storage device 152.

次に、制御部150のCPU151が実行する表示制御処理について、図4及び図5のフローチャートを参照して説明する。表示制御処理は、例えば、ユーザが操作部120を介して表示処理装置100に対して表示制御処理を開始する旨の操作を行ったことを契機として開始する。より具体的には、例えば、操作部120が出力した表示制御処理の開始指示を示す操作情報を制御部150が受信したことを契機として開始する。   Next, display control processing executed by the CPU 151 of the control unit 150 will be described with reference to the flowcharts of FIGS. 4 and 5. For example, the display control process starts when the user performs an operation to start the display control process on the display processing apparatus 100 via the operation unit 120. More specifically, for example, the control unit 150 starts when the control unit 150 receives operation information indicating a display control process start instruction output from the operation unit 120.

表示制御処理を開始すると、表示画像特定部150aは、記憶媒体40に記録された複数の画像データの中から、表示画像を表す表示画像データと、その表示画像データの表示順序とを特定する(ステップS11)。なお、記憶媒体40には、動画を構成する各画像データや、所定期間連写撮影された連写画像を表す画像データがそれぞれ1つのグループとして予め記録されているものとし、表示画像特定部150aは、このグループ内に各画像データを用いて前述の処理を行うものとする。表示画像特定部150aは、記憶媒体40に記録された画像データ全て、又は、記憶媒体40に記録された所定のグループ(例えば同一フォルダ内に記録された複数の画像データ)内の複数の画像データ等を用いて前述の処理を行ってもよい。   When the display control process is started, the display image specifying unit 150a specifies the display image data representing the display image and the display order of the display image data from the plurality of image data recorded in the storage medium 40 ( Step S11). In addition, it is assumed that each image data constituting a moving image and image data representing continuous shot images continuously shot for a predetermined period are recorded in advance in the storage medium 40 as one group, and the display image specifying unit 150a. In this group, the above-described processing is performed using each image data. The display image specifying unit 150a includes all the image data recorded in the storage medium 40 or a plurality of image data in a predetermined group (for example, a plurality of image data recorded in the same folder) recorded in the storage medium 40. Etc. may be used to perform the above-described processing.

具体的には、例えば、表示画像特定部150aは、記憶媒体40に記録された画像データ全てについて、各画像データの撮影時刻を示す撮影時刻データを記録媒体40から取得する。なお、記憶媒体40には、予め、画像データと、その画像データが撮影された時刻を示す撮影時刻データが対応付けて記録されているものとする。そして取得した撮影時刻データが示す撮影時刻が古い順(つまり時系列順)を表示順序に対応させ、その撮影時刻データに対応する画像データを表示画像データとして表示画像DB113に記録する。   Specifically, for example, the display image specifying unit 150 a acquires shooting time data indicating the shooting time of each image data from the recording medium 40 for all the image data recorded in the storage medium 40. In the storage medium 40, it is assumed that image data and shooting time data indicating the time when the image data was shot are recorded in association with each other. Then, the order of the shooting times indicated by the acquired shooting time data (that is, the chronological order) is associated with the display order, and the image data corresponding to the shooting time data is recorded in the display image DB 113 as display image data.

また、表示画像特定部150aは、ステップS11で特定した表示画像データの数だけセンシング領域123aを分割し、複数の特定用センシング領域を規定する(ステップS12)。   Further, the display image specifying unit 150a divides the sensing area 123a by the number of display image data specified in step S11, and defines a plurality of specifying sensing areas (step S12).

具体的には、表示画像特定部150aは、表示画像DB113にN個の表示画像データが記録されている場合、図7に示すように、センシング領域123aをその長手方向にN等分して特定用センシング領域A〜Aを規定する。そして特定用センシング領域A〜Aのセンシング領域123a上における位置(「Z≦Z<Z」、「Z≦Z<Z」、…、「ZN−1≦Z≦Z」)を表示順序nと対応付けて表示画像DB113に記録する(図6参照)。 Specifically, when N pieces of display image data are recorded in the display image DB 113, the display image specifying unit 150a specifies the sensing region 123a by dividing it into N parts in the longitudinal direction as shown in FIG. defining a use sensing region a 1 to a N. The position on the sensing region 123a of specifying sensing region A 1 to A N ( "Z 0Z <Z 1", "Z 1Z <Z 2", ..., "Z N-1 ≦ Z ≦ Z N ") Is recorded in the display image DB 113 in association with the display order n (see FIG. 6).

次に、拡大画像生成部150dは、ユーザが、ステップS11で特定された表示画像データが表す表示画像の表示部130への表示を開始する旨の操作を行ったか否かを判別する(ステップS13)。具体的には、拡大画像生成部150dは、ユーザが操作部120を操作することにより操作部120が出力した表示画像の表示開始指示を示す操作情報を受信したか否かを判別する。ユーザが表示を開始する旨の操作を行っていないと判別した場合(ステップS13;No)、拡大画像生成部150dは表示を開始する旨の操作が行われるまで待ち状態となる。   Next, the enlarged image generation unit 150d determines whether or not the user has performed an operation to start displaying the display image represented by the display image data specified in Step S11 on the display unit 130 (Step S13). ). Specifically, the enlarged image generation unit 150d determines whether or not operation information indicating an instruction to start displaying a display image output from the operation unit 120 is received by the user operating the operation unit 120. When it is determined that the user has not performed an operation for starting display (step S13; No), the enlarged image generation unit 150d is in a waiting state until an operation for starting display is performed.

ユーザが表示を開始する旨の操作を行ったと判別した場合(ステップS13;Yes)、拡大画像生成部150dは、表示画像DB113を参照して、表示順序n=1に対応する表示画像データを表示部130に出力する(ステップS14)。   When it is determined that the user has performed an operation to start display (step S13; Yes), the enlarged image generation unit 150d refers to the display image DB 113 and displays display image data corresponding to the display order n = 1. The data is output to the unit 130 (step S14).

次に制御部150(特に画像特定部150b、位置特定部150c、拡大画像生成部150d)は、拡大画像生成処理を実行する(ステップS15)。拡大画像生成処理について、図5のフローチャートを参照して説明する。   Next, the control unit 150 (in particular, the image specifying unit 150b, the position specifying unit 150c, and the enlarged image generating unit 150d) executes an enlarged image generating process (step S15). The enlarged image generation process will be described with reference to the flowchart of FIG.

まず、画像特定部150bは、接触式センサ123に対するユーザの接触操作を検出したか否かを判別する(ステップS21)。具体的には、画像特定部150bは、接触式センサ123からセンシング領域123a上でユーザが接触操作した位置を示す操作情報を受信したか否かを判別する。接触操作を検出していないと判別すると(ステップS21;No)、画像特定部150bは、接触操作を検出するまで待ち状態となる。   First, the image specifying unit 150b determines whether or not a user's contact operation on the contact sensor 123 has been detected (step S21). Specifically, the image specifying unit 150b determines whether or not operation information indicating a position where the user performs a contact operation on the sensing area 123a from the contact sensor 123 is received. If it is determined that the contact operation is not detected (step S21; No), the image specifying unit 150b is in a waiting state until the contact operation is detected.

接触操作を検出したと判別した場合(ステップS21;Yes)、画像特定部150bは、その接触操作により接触式センサ123から受信した操作情報に基づいて、ユーザが接触した位置に対応する表示画像データを特定する(ステップS22)。   When it is determined that the contact operation has been detected (step S21; Yes), the image specifying unit 150b displays the display image data corresponding to the position touched by the user based on the operation information received from the contact sensor 123 by the contact operation. Is specified (step S22).

具体的には、画像特定部150bは、接触式センサ123から受信した操作情報が示すセンシング領域123a上における位置に基づいて、表示画像DB113を参照して特定用センシング領域A〜Aの中から、ユーザが接触した領域である接触領域A(1≦m≦N)を特定する。そして、表示順序n=mに対応する表示画像データを特定する。例えば、接触式センサ123から受信した操作情報が示すセンシング領域123a上における位置ZがZ≦Z<Zである場合、画像特定部150bは、表示画像DB113を参照して、接触領域Aとして特定用センシング領域A(すなわちm=3)を特定する。そして、表示順序n=3に対応する表示画像データ「aaa3」を特定する(図6参照)。 Specifically, the image specifying unit 150b refers to the display image DB 113 based on the position on the sensing area 123a indicated by the operation information received from the contact sensor 123, and among the specifying sensing areas A 1 to A N. From this, a contact area Am (1 ≦ m ≦ N), which is an area where the user has contacted, is specified. Then, display image data corresponding to the display order n = m is specified. For example, if the position Z on the sensing region 123a indicated by the operation information received from the contact sensor 123 is Z 2 ≦ Z <Z 3, the image selecting unit 150b refers to the display image DB 113, the contact area A m As a specific sensing area A 3 (ie, m = 3). Then, the display image data “aaa3” corresponding to the display order n = 3 is specified (see FIG. 6).

次に、位置特定部150cは接触式センサ121、122に対するユーザの接触操作を検出したか否かを判別する(ステップS23)。具体的には、位置特定部150cは、接触式センサ121、122からセンシング領域121a、122a上でユーザが接触操作した位置を示す操作情報を受信したか否かを判別する。接触操作を検出していないと判別すると(ステップS23;No)、位置特定部150cは、ステップS21に処理を戻す。   Next, the position specifying unit 150c determines whether or not the user's contact operation on the contact sensors 121 and 122 has been detected (step S23). Specifically, the position specifying unit 150c determines whether or not operation information indicating a position where the user performs a contact operation on the sensing areas 121a and 122a has been received from the contact sensors 121 and 122. If it is determined that the contact operation is not detected (step S23; No), the position specifying unit 150c returns the process to step S21.

位置特定部150cは、接触式センサ121、122に対するユーザの接触操作を検出したと判別した場合(ステップS23;Yes)、その接触操作により接触式センサ121から受信した操作情報と、接触式センサ122から受信した操作情報とに基づいて、拡大領域Bの中心点Pを特定する(ステップS24)。 When it is determined that the user's contact operation with respect to the contact sensors 121 and 122 has been detected (step S23; Yes), the position specifying unit 150c receives the operation information received from the contact sensor 121 by the contact operation, and the contact sensor 122. The center point P 0 of the enlarged region B is specified based on the operation information received from (Step S24).

具体的に拡大領域Bの中心点Pを特定する方法の一例について、図8(a)を用いて説明する。図8(a)に表示順序nに対応する表示画像データが表す表示画像I0nを示す。なお、図8(a)に示す表示画像I0nは、拡大領域Bの中心点Pを特定する方法を説明するためのものであり、実際に表示部130に表示される画像は、図8(a)の拡大領域Bの拡大画像I1n(図8(b)参照)である。図8(a)に示すように、位置特定部150cは、接触式センサ121からの操作情報が示す位置Xに対応する、表示画像I0n上におけるx軸方向の座標xと、接触式センサ122からの操作情報が示す位置Yに対応する、表示画像I0n上におけるy軸方向の座標yとから規定される1つの座標点を拡大領域Bの中心点Pとして特定する。 A specific example of a method for specifying the center point P 0 of the enlarged region B will be described with reference to FIG. FIG. 8A shows a display image I 0n represented by display image data corresponding to the display order n. Note that the display image I 0n shown in FIG. 8A is for explaining a method of specifying the center point P 0 of the enlarged region B, and the image actually displayed on the display unit 130 is shown in FIG. It is an enlarged image I 1n (see FIG. 8B) of the enlarged region B in (a). As illustrated in FIG. 8A, the position specifying unit 150 c includes the coordinate x 0 in the x-axis direction on the display image I 0n corresponding to the position X 0 indicated by the operation information from the contact sensor 121, and the contact type. One coordinate point defined from the coordinate y 0 in the y-axis direction on the display image I 0n corresponding to the position Y 0 indicated by the operation information from the sensor 122 is specified as the center point P 0 of the enlarged region B.

次に拡大画像生成部150dは、ステップS24で特定された中心点Pにより特定される拡大領域Bの拡大画像データを生成し、生成された拡大画像データを表示部130に出力する(ステップS25)。 Then enlarged image generating unit 150d generates an enlarged image data of the enlarged area B which is specified by the center point P 0, which is specified in step S24, and outputs the generated magnified image data on the display unit 130 (step S25 ).

具体的には、拡大画像生成部150dは、ステップS24で特定された中心点Pを中心として所定の大きさを有する領域(例えば、横320ピクセル、縦240ピクセルの矩形領域)を拡大領域Bとして特定する。なお、拡大領域Bの大きさは、例えば予めユーザにより設定され、記憶部110に記録されているものとする。そして、拡大画像生成部150dは、特定された拡大領域Bについて、表示部130に拡大表示するための拡大画像データを生成し、表示部130に出力する。例えば、図8(a)に示す表示画像I0n上の拡大領域Bについて生成された拡大画像データが表示部130に出力された場合、図8(b)に示す拡大画像I1nが表示部130に表示される。そして、拡大画像生成部150dは、ステップ21に処理を戻す。 Specifically, the enlarged image generating unit 150d, an area having a predetermined size around the center point P 0, which is specified in step S24 (e.g., 320 horizontal pixels, a rectangular area of 240 vertical pixels) larger region B As specified. Note that the size of the enlarged area B is set in advance by the user and recorded in the storage unit 110, for example. Then, the enlarged image generation unit 150 d generates enlarged image data for enlarged display on the display unit 130 for the specified enlarged region B, and outputs the enlarged image data to the display unit 130. For example, when the enlarged image data generated for the enlarged region B on the display image I 0n shown in FIG. 8A is output to the display unit 130, the enlarged image I 1n shown in FIG. Is displayed. Then, the enlarged image generation unit 150d returns the process to step 21.

そして、制御部(画像特定部150b、位置特定部150c、拡大画像生成部150d)は、ステップS21乃至25の処理を繰り返し行う。なお、制御部150は、例えばユーザが操作部120を介して表示画像の表示を終了する旨の操作を行った場合、すなわち操作部120から表示画像の表示終了指示を示す操作情報を受信した場合、表示制御処理を終了する。   Then, the control unit (the image specifying unit 150b, the position specifying unit 150c, and the enlarged image generating unit 150d) repeats the processes of steps S21 to S25. Note that the control unit 150, for example, when the user performs an operation to end display image display via the operation unit 120, that is, when operation information indicating a display image display end instruction is received from the operation unit 120. The display control process ends.

次に、以上のように構成される表示処理装置100について、ユーザが予め選択した複数の画像を切り換えながら拡大表示する場合の具体的な動作を図9、10(a)〜(f)を用いて説明する。図9及び図10(a)〜(c)は、ユーザの操作による拡大領域の移動と、拡大される元の画像の切り換えを説明するための図である。また、図10(d)〜(f)は、図10(a)〜(c)において説明されるユーザの操作により表示部130に表示される拡大画像を示す図である。ここで、ユーザの操作により、動画を構成する複数の画像データが表示画像データとして、また、その表示画像データの撮影時刻の古い順が表示順序として、表示画像DB113に予め記録されているものとする。   Next, with respect to the display processing apparatus 100 configured as described above, specific operations when an enlarged display is performed while switching a plurality of images selected in advance by the user will be described with reference to FIGS. I will explain. FIG. 9 and FIGS. 10A to 10C are diagrams for explaining the movement of the enlarged region by the user's operation and the switching of the original image to be enlarged. FIGS. 10D to 10F are diagrams showing enlarged images displayed on the display unit 130 by the user's operation described in FIGS. 10A to 10C. Here, by the user's operation, a plurality of pieces of image data constituting a moving image are recorded in advance in the display image DB 113 as display image data, and the oldest shooting time of the display image data is displayed as the display order. To do.

図9に示すように、表示処理装置100は、N個の表示画像データが表す表示画像I01、I02、…、I0Nを、ユーザによるセンシング領域123aの接触操作により順次切り換えて拡大する元の画像として特定する。また、ユーザによるセンシング領域123aの接触操作と同時に行われる、センシング領域121a、122aの接触操作により、センシング領域123aの接触操作で特定された画像の拡大領域を特定し、その拡大画像を表示する。例えば、ユーザが、センシング領域121aについて位置Xから位置Xへ、センシング領域122aについて位置Yから位置Yへ、センシング領域123aについて位置Zから位置Zへ、センシング領域121a、122a、123a上におけるスライド操作を同時に行った場合について説明する。このとき、表示処理装置100は、まずセンシング領域121a、122aの接触操作により特定された表示画像I01における拡大領域Bの拡大画像を表示する。そして、センシング領域123aの接触操作により特定された表示画像について拡大領域を移動させた拡大画像を表示しながら、最終的に表示画像I0nにおける拡大領域Bの拡大画像を表示する。 As shown in FIG. 9, the display processing apparatus 100 is configured to sequentially switch and enlarge the display images I 01 , I 02 ,..., I 0N represented by the N pieces of display image data by a touch operation of the sensing area 123 a by the user. Specified as an image. Further, an enlarged region of the image specified by the contact operation of the sensing region 123a is specified by the contact operation of the sensing regions 121a and 122a performed simultaneously with the contact operation of the sensing region 123a by the user, and the enlarged image is displayed. For example, the user, to the position X n from the position X 1 for sensing area 121a, the position Y 1 to position Y n for sensing area 122a, to the position Z n from the position Z 1 for sensing area 123a, the sensing area 121a, 122a, The case where the slide operation on 123a is performed simultaneously will be described. At this time, the display processing unit 100 first sensing area 121a, and displays the enlarged image of the enlarged area B 1 in the display image I 01 identified by 122a of the contact operation. And while displaying the enlarged image which moved the enlarged area about the display image specified by the contact operation of the sensing area 123a, the enlarged image of the enlarged area Bn in the display image I 0n is finally displayed.

次に、図10(a)〜(f)を用いて、さらに具体的な表示処理装置100の動作を説明する。
ユーザが、例えば図10(a)に示すように左手人差し指、左手親指、右手人差し指を、それぞれセンシング領域121a、122a、123a上のX、Y、Zの位置に接触させているとする。このとき、表示処理装置100は、センシング領域123a上の位置Zに対応する表示画像データを、表示画像DB113を参照して特定する。そして、表示処理装置100は、センシング領域121a上の位置Xと、センシング領域122a上の位置Yにより特定される点P0aを中心とする拡大領域Bを特定する。そして、表示処理装置100は、特定した表示画像データが表す表示画像I0aにおける拡大領域Bの拡大画像データを生成し、表示部130に出力する。従って、図10(a)に示す操作により、図10(d)に示す拡大画像I1aが表示部130に表示される。
Next, a more specific operation of the display processing apparatus 100 will be described with reference to FIGS.
For example, as shown in FIG. 10A, the user touches the left index finger, the left thumb index, and the right index index finger at positions X a , Y a , and Z a on the sensing areas 121 a, 122 a, and 123 a , respectively. . At this time, the display processing unit 100, the display image data corresponding to the position Z a in the sensing region 123a, is specified by referring to the display image DB 113. Then, the display processing device 100 specifies the enlarged region B a centered on the point X 0a specified by the position X a on the sensing region 121a and the position Y a on the sensing region 122a. Then, the display processing unit 100 generates an enlarged image data of the enlarged area B a in the display image I 0a representing specific display image data, and outputs to the display unit 130. Accordingly, the enlarged image I1a shown in FIG. 10D is displayed on the display unit 130 by the operation shown in FIG.

次に、ユーザが、図10(d)の拡大画像I1aの元の画像(すなわち表示画像I0a)が撮影された時刻よりも新しい表示画像について、異なる領域を拡大させて表示部130に表示させる場合の操作について説明する。この場合、ユーザは、左手人差し指、左手親指、右手人差し指を同時に、図10(b)に示すように、位置X、Y、Zから位置X、Y、Zへ、スライド操作を行う。この場合も、前述の図10(a)において示した動作と同様に、表示処理装置100は、表示画像データ及び拡大領域Bを特定する。なお、ユーザは、センシング領域123aを右方向(Z軸の正方向)にスライド操作することにより表示画像データを特定している。これは、前述したように、複数の表示画像データが、その撮影時刻の古い順を表示順序として表示画像DB113に記録されているためである。従って、センシング領域123a上の接触位置に対応する表示順序が高くなる方向、すなわちZ軸の正方向にスライド操作することで、撮影時刻が新しい表示画像データを特定することができる。そして、表示処理装置100は、特定された表示画像データが表す表示画像I0bにおける、特定された拡大領域Bの拡大画像データを生成し、表示部130に出力する。従って、図10(b)に示す操作により、図10(e)に示す拡大画像I1bが表示部130に表示される。 Next, a different area is enlarged and displayed on the display unit 130 for the display image that is newer than the time when the original image (that is, the display image I 0a ) of the enlarged image I 1a in FIG. The operation for making it happen will be described. In this case, the user performs the slide operation with the left index finger, the left thumb, and the right index finger simultaneously from the position X a , Y a , Z a to the position X b , Y b , Z b as shown in FIG. I do. In this case, similar to the operation shown in FIG. 10 of the foregoing (a), the display processing unit 100 specifies the display image data and the enlarged region B b. Note that the user specifies display image data by sliding the sensing area 123a in the right direction (the positive direction of the Z axis). This is because, as described above, a plurality of display image data is recorded in the display image DB 113 with the shooting order from the oldest shooting time as the display order. Accordingly, the display image data with a new photographing time can be specified by performing a sliding operation in the direction in which the display order corresponding to the contact position on the sensing region 123a increases, that is, in the positive direction of the Z axis. Then, the display processing unit 100, in the display image I 0b representing a specific display image data to generate expanded image data of the specified enlargement area B b, and outputs to the display unit 130. Accordingly, the enlarged image I1b shown in FIG. 10E is displayed on the display unit 130 by the operation shown in FIG.

次に、ユーザが、図10(e)の拡大画像I1bの元の画像(すなわち表示画像I0b)が撮影された時刻よりも古い表示画像について、異なる領域を拡大させて表示部130に表示させる場合の操作について説明する。この場合、ユーザは、左手人差し指、左手親指、右手人差し指を同時に、図10(c)に示すように、位置X、Y、Zから位置X、Y、Zへ、移動させてスライド操作を行う。この場合も、前述の図10(b)において示した動作と同様に、表示処理装置100は、表示画像データ及び拡大領域Bを特定する。なお、ユーザは、センシング領域123aを左方向(Z軸の負方向)にスライド操作することにより、撮影時刻が古い表示画像データを特定している。そして、表示処理装置100は、特定された表示画像データが表す表示画像I0cにおける、特定された拡大領域Bの拡大画像データを生成し、表示部130に出力する。従って、図10(c)に示す操作により、図10(f)に示す拡大画像I1cが表示部130に表示される。 Next, a different area is enlarged and displayed on the display unit 130 for a display image older than the time when the original image (that is, the display image I 0b ) of the enlarged image I 1b in FIG. The operation for making it happen will be described. In this case, the user simultaneously moves the left index finger, the left thumb, and the right index finger from positions X b , Y b , and Z b to positions X c , Y c , and Z c as shown in FIG. To slide. In this case, similar to the operation shown in FIG. 10 of the aforementioned (b), the display processing unit 100 specifies the display image data and the enlarged region B b. Note that the user specifies display image data with an old shooting time by sliding the sensing area 123a leftward (in the negative direction of the Z axis). Then, the display processing unit 100, in the display image I 0c representing the identified display image data to generate expanded image data of the specified enlargement area B c, and outputs to the display unit 130. Therefore, the enlarged image I1c shown in FIG. 10F is displayed on the display unit 130 by the operation shown in FIG.

以上のように、実施形態1に係る表示処理装置100において、ユーザは複数の画像を切り換えながら、同時に切り換えられた画像上の任意の領域における拡大画像を表示部130に表示させることができる。また、表示部130に表示される拡大画像の拡大領域を移動させながら、同時に複数の画像を切り換えることができる。例えば、上述の実施形態1において、ユーザは接触式センサ121、122を接触操作することにより拡大領域を指定すると同時に、接触式センサ123を接触操作することで、任意の撮影時刻における拡大しようとする表示画像を切り換えながら、指定した拡大領域について拡大画像を表示部130に表示させることができる。また、ユーザは接触式センサ123を接触操作することにより拡大しようとする表示画像を指定すると同時に、接触式センサ121、122を接触操作することで、指定した拡大しようとする表示画像において拡大領域を移動させながら拡大画像を表示部130に表示させることができる。さらに、ユーザは、接触式センサ121、122、123を同時にスライド操作することにより、表示部130に表示される拡大画像の拡大領域、及び拡大される元の表示画像を同時に連続的に変化させることができる。このように、表示処理装置100は、ユーザの操作に応じて変化に富んだ画像を表示することができ、ユーザに新しい印象を与えることができる。   As described above, in the display processing apparatus 100 according to the first embodiment, the user can cause the display unit 130 to display an enlarged image in an arbitrary region on the switched image while switching a plurality of images. In addition, a plurality of images can be switched simultaneously while moving the enlarged region of the enlarged image displayed on the display unit 130. For example, in the first embodiment described above, the user designates an enlargement region by touching the contact sensors 121 and 122 and simultaneously touches the contact sensor 123 to enlarge at an arbitrary shooting time. While switching the display image, the enlarged image can be displayed on the display unit 130 for the designated enlarged region. In addition, the user designates a display image to be enlarged by touching the contact sensor 123, and at the same time, by touching the contact sensors 121 and 122, the user can specify an enlargement area in the designated display image to be enlarged. The enlarged image can be displayed on the display unit 130 while being moved. Further, the user can continuously change the enlargement area of the enlarged image displayed on the display unit 130 and the original display image to be enlarged simultaneously by sliding the contact sensors 121, 122, 123 simultaneously. Can do. In this way, the display processing apparatus 100 can display images that are varied according to user operations, and can give a new impression to the user.

(実施形態2)
次に、本発明の実施形態2に係る表示処理装置100について説明する。実施形態2に係る表示処理装置100は、ユーザの操作により特定された拡大領域がユーザによる操作終了後に等速度で移動する点において、実施形態1に係る表示処理装置100と異なる。以下に、実施形態2に係る表示処理装置100について、実施形態1に係る表示処理装置と異なる点について詳細に説明する。なお、実施形態1と同様の構成要素については、同様の符号を用い、その詳細な説明は省略する。
(Embodiment 2)
Next, a display processing apparatus 100 according to Embodiment 2 of the present invention will be described. The display processing device 100 according to the second embodiment is different from the display processing device 100 according to the first embodiment in that the enlarged region specified by the user's operation moves at a constant speed after the user's operation ends. Hereinafter, the display processing apparatus 100 according to the second embodiment will be described in detail with respect to differences from the display processing apparatus according to the first embodiment. In addition, about the component similar to Embodiment 1, the same code | symbol is used and the detailed description is abbreviate | omitted.

まず、実施形態2に係る表示処理装置100の構成を図11及び図12を参照して説明する。表示処理装置100は、図11に示すように、記憶部110と、操作部120と、表示部130と、読出・書込部140と、制御部150と、を備える。   First, the configuration of the display processing apparatus 100 according to the second embodiment will be described with reference to FIGS. 11 and 12. As shown in FIG. 11, the display processing apparatus 100 includes a storage unit 110, an operation unit 120, a display unit 130, a reading / writing unit 140, and a control unit 150.

記憶部110は、実施形態1に係る表示処理装置と同様に、二次記憶装置111によって実現されるが、表示画像DB113が二次記憶装置111に記録されていない点で異なる。また、操作部120は、実施形態1に係る表示処理装置100と同様に、ユーザによる後述する拡大領域を特定するための操作を受け付ける第2操作部120bを含むが、第1操作部120aを含まない点で異なる。また、第2操作部120bは、実施形態1に係る表示処理装置100と同様に、接触式センサ121、122によって実現される。   The storage unit 110 is realized by the secondary storage device 111 as in the display processing device according to the first embodiment, but is different in that the display image DB 113 is not recorded in the secondary storage device 111. The operation unit 120 includes a second operation unit 120b that accepts an operation for specifying an enlargement area described later by the user, similar to the display processing device 100 according to the first embodiment, but includes the first operation unit 120a. There are no differences. The second operation unit 120b is realized by the contact sensors 121 and 122 as in the display processing apparatus 100 according to the first embodiment.

制御部150は、実施形態1に係る表示処理装置100と同様に、位置特定部150e、拡大画像生成部150dとして機能するが、表示画像特定部150a、画像特定部150bとしては機能しない点で異なる。さらに実施形態2に係る位置特定部150eは、実施形態1に係る位置特定部150bと同様に、表示部130に拡大して表示する領域である拡大領域の位置を特定する。しかし、位置特定部150eは、ユーザの操作により特定された拡大領域の位置を、ユーザによる操作終了後に等速度で移動させる点で、位置特定部150cと異なる。以下に、位置特定部150eについて詳細に説明する。   Similar to the display processing apparatus 100 according to the first embodiment, the control unit 150 functions as the position specifying unit 150e and the enlarged image generating unit 150d, but is different in that it does not function as the display image specifying unit 150a and the image specifying unit 150b. . Furthermore, the position specifying unit 150e according to the second embodiment specifies the position of an enlarged area that is an area to be enlarged and displayed on the display unit 130, similarly to the position specifying unit 150b according to the first embodiment. However, the position specifying unit 150e is different from the position specifying unit 150c in that the position of the enlarged region specified by the user's operation is moved at a constant speed after the user's operation ends. Hereinafter, the position specifying unit 150e will be described in detail.

位置特定部150eは、表示部130に表示されている画像について、第2操作部120bが出力する操作情報に基づいて、1つの点を拡大領域の中心点として特定する。そして、拡大画像生成部150dは、位置特定部150eが特定した中心点を中心として所定の大きさを有する領域(例えば、横320ピクセル、縦240ピクセルの矩形領域)を拡大領域として特定する。そして拡大画像生成部150dは、特定した拡大領域における拡大画像データを生成し、表示部130に出力する。   The position specifying unit 150e specifies one point as the center point of the enlarged region based on the operation information output from the second operation unit 120b for the image displayed on the display unit 130. Then, the enlarged image generation unit 150d specifies an area (for example, a rectangular area of 320 pixels wide and 240 pixels high) having a predetermined size around the center point specified by the position specifying unit 150e as an enlarged region. Then, the enlarged image generating unit 150d generates enlarged image data in the specified enlarged region and outputs it to the display unit 130.

また、位置特定部150eは、第2操作部120bが出力する操作情報に基づいて、ユーザによる第2操作部120bの操作が終了したか否かを判別する。そして、操作が終了したと判別した場合に、操作終了直前の操作速度で、拡大領域を等速度運動させた場合の拡大領域の中心点を特定する。   Further, the position specifying unit 150e determines whether or not the operation of the second operation unit 120b by the user has ended based on the operation information output by the second operation unit 120b. Then, when it is determined that the operation is completed, the center point of the enlarged region when the enlarged region is moved at a constant speed at the operation speed immediately before the operation is finished is specified.

次に、制御部150のCPU151が実行する拡大画像生成処理について、図13のフローチャートを参照して説明する。拡大画像生成処理は、例えば、ユーザが操作部120を介して表示処理装置100に対して、表示部130に表示されている画像の拡大画像生成処理を開始する旨の操作を行ったことを契機として開始する。具体的には、例えば、操作部120が出力した、表示部130に表示されている画像拡大画像生成処理の開始指示を示す操作情報を制御部150が受信したことを契機として開始する。   Next, enlarged image generation processing executed by the CPU 151 of the control unit 150 will be described with reference to the flowchart of FIG. The enlarged image generation process is triggered, for example, when the user performs an operation to start the enlarged image generation process of the image displayed on the display unit 130 with respect to the display processing device 100 via the operation unit 120. Start as. Specifically, for example, the control unit 150 starts when the control unit 150 receives operation information indicating an instruction to start the enlarged image generation process displayed on the display unit 130 and output from the operation unit 120.

まず、拡大画像生成部150dは、表示部130に表示されている画像について、初期拡大画像データを生成し、生成された初期拡大画像データを表示部130に出力する(ステップS31)。具体的には、図8(a)に示すように、拡大画像生成部150dは、表示部130に表示されている画像について、その画像の所定の点(例えば中心点)を中心点Pとして所定の大きさ(例えば、横320ピクセル、縦240ピクセルの矩形領域)の領域を拡大領域Bとする拡大画像を表す拡大画像データを生成する。そして、生成された拡大画像データを初期拡大画像データとして表示部130に出力する。また、拡大画像生成部150dは、元の画像(拡大前の画像)における拡大領域Bの中心点Pのx座標、y座標を一次記憶装置152に記録するとともに、x軸方向移動速度、y軸方向移動速度として初期値0を記録する。 First, the enlarged image generation unit 150d generates initial enlarged image data for the image displayed on the display unit 130, and outputs the generated initial enlarged image data to the display unit 130 (step S31). Specifically, as illustrated in FIG. 8A, the enlarged image generation unit 150 d sets a predetermined point (for example, a center point) of the image displayed on the display unit 130 as a center point P 0. Enlarged image data representing an enlarged image in which an area of a predetermined size (for example, a rectangular area of horizontal 320 pixels and vertical 240 pixels) is an enlarged area B is generated. Then, the generated enlarged image data is output to the display unit 130 as initial enlarged image data. Moreover, the enlarged image generating unit 150d includes, x coordinate of the center point P 0 of the enlarged area B in the original image (enlargement previous image), and records the y-coordinate in the primary storage device 152, x-axis direction movement speed, y The initial value 0 is recorded as the moving speed in the axial direction.

次に、位置特定部150eは、接触式センサ121に対するユーザの接触操作を検出したか否かを判別する(ステップS32)。具体的には、位置特定部150eは、接触式センサ121からセンシング領域121a上でユーザが接触操作した位置を示す操作情報を受信したか否かを判別する。   Next, the position specifying unit 150e determines whether or not the user's touch operation on the contact sensor 121 has been detected (step S32). Specifically, the position specifying unit 150e determines whether or not operation information indicating a position where the user performs a contact operation on the sensing area 121a from the contact sensor 121 is received.

接触式センサ121に対するユーザの接触操作を検出したと判別した場合(ステップS32;Yes)、位置特定部150eは、その接触操作により接触式センサ121から受信した操作情報が示す接触位置に基づいて、表示部130に表示されている拡大画像の元の画像(拡大前の画像)における拡大領域Bの中心点Pのx座標を特定する(ステップS33)。そして、位置特定部150eは、特定したx座標を一次記憶装置152に記録する。なお、接触式センサ121から受信した操作情報に基づいて、拡大領域Bの中心点のx座標を求める具体的な方法は、実施形態1と同様である。 When it is determined that the contact operation of the user with respect to the contact sensor 121 is detected (step S32; Yes), the position specifying unit 150e is based on the contact position indicated by the operation information received from the contact sensor 121 by the contact operation. The x coordinate of the center point P 0 of the enlarged region B in the original image (image before enlargement) of the enlarged image displayed on the display unit 130 is specified (step S33). Then, the position specifying unit 150e records the specified x coordinate in the primary storage device 152. A specific method for obtaining the x coordinate of the center point of the enlarged region B based on the operation information received from the contact sensor 121 is the same as that in the first embodiment.

接触式センサ121に対するユーザの接触操作を検出していないと判別した場合(ステップS32;No)、位置特定部150eは、直近の過去所定時間内に接触式センサ121に対するユーザの接触操作を検出したか否かを判別する(ステップS34)。具体的には、例えば、直近の過去所定時間内(例えば、100msec内)に接触式センサ121から操作情報を受信したか否かを判別する。直近の過去所定時間内に接触式センサ121に対するユーザの接触操作を検出していないと判別した場合(ステップS34;No)、位置特定部150eは、ステップS36に処理を進める。   When it is determined that the user's contact operation with respect to the contact sensor 121 has not been detected (step S32; No), the position specifying unit 150e has detected the user's contact operation with respect to the contact sensor 121 within the latest past predetermined time. Whether or not (step S34). Specifically, for example, it is determined whether or not the operation information is received from the contact sensor 121 within the latest past predetermined time (for example, within 100 msec). If it is determined that the user's contact operation with respect to the contact sensor 121 has not been detected within the most recent past predetermined time (step S34; No), the position specifying unit 150e advances the process to step S36.

直近の過去所定時間内に接触式センサ121に対するユーザの接触操作を検出したと判別した場合(ステップS34;Yes)、位置特定部150eは、直近の過去所定時間内に受信した操作情報に基づいて、表示部130に表示されている拡大画像の元の画像における拡大領域Bの中心点Pのx軸方向の移動速度を算出する(ステップS35)。具体的には、直近の過去所定時間内(例えば、100msec内)に受信した複数の操作情報が示すセンシング領域121aにおける位置について、対応する表示部130に表示されている拡大画像の元の画像上における位置、すなわち中心点Pのx座標を特定し、直近の過去所定時間内における移動距離を算出する。そして、算出された移動距離と、直近の過去所定時間とから、ユーザによる接触操作終了直前の中心点のx軸方向移動速度を算出する。また、位置特定部150eは、算出したx軸方向移動速度を一次記憶装置152に記録する。 When it is determined that the user's touch operation on the contact sensor 121 has been detected within the latest past predetermined time (step S34; Yes), the position specifying unit 150e is based on the operation information received within the latest past predetermined time. , calculates the moving speed of the x-axis direction of the center point P 0 of the enlarged area B in the original image of the enlarged image displayed on the display unit 130 (step S35). Specifically, regarding the position in the sensing area 121a indicated by a plurality of operation information received within the latest past predetermined time (for example, within 100 msec), on the original image of the enlarged image displayed on the corresponding display unit 130 Is determined, that is, the x-coordinate of the center point P 0 , and the moving distance within the latest past predetermined time is calculated. Then, the x-axis direction moving speed of the central point immediately before the end of the contact operation by the user is calculated from the calculated moving distance and the latest past predetermined time. In addition, the position specifying unit 150e records the calculated x-axis direction moving speed in the primary storage device 152.

次に、位置特定部150eは、一次記憶装置152に記録されたx軸方向移動速度から、中心点Pの移動後のx座標を特定する(ステップS36)。具体的には、位置特定部150eは、一次記憶装置152に記録されたx軸方向移動速度と中心点Pのx座標とに基づいて、中心点Pが一次記憶装置152に記録されたx軸方向移動速度で等速度運動した場合のx座標を算出する。そして、位置特定部150eは、算出したx座標を一次記憶装置152に記録する。 Then, the position specifying unit 150e from the primary to the storage device 152 records the x-axis direction moving speed, identifies the x-coordinate after movement of the center point P 0 (step S36). Specifically, the position specifying unit 150e, based on the x-coordinate of the primary storage device 152 x-axis direction movement speed and the center point P 0 recorded in the center point P 0 is recorded in the primary storage device 152 The x-coordinate is calculated when moving at a constant speed at the x-axis direction moving speed. Then, the position specifying unit 150e records the calculated x coordinate in the primary storage device 152.

位置特定部150eは、接触式センサ122に対するユーザの接触操作を検出したか否かを判別する(ステップS37)。具体的には、位置特定部150eは、接触式センサ122からセンシング領域122a上でユーザが接触操作した位置を示す操作情報を受信したか否かを判別する。   The position specifying unit 150e determines whether or not the user's contact operation on the contact sensor 122 has been detected (step S37). Specifically, the position specifying unit 150e determines whether or not operation information indicating a position where the user performs a contact operation on the sensing area 122a is received from the contact sensor 122.

接触式センサ122に対するユーザの接触操作を検出したと判別した場合(ステップS37;Yes)、位置特定部150eは、その接触操作により接触式センサ122から受信した操作情報が示す接触位置に基づいて、表示部130に表示されている拡大画像の元の画像における拡大領域Bの中心点Pのy座標を特定する(ステップS38)。そして、位置特定部150eは、特定したy座標を一次記憶装置152に記録する。なお、接触式センサ122から受信した操作情報に基づいて、拡大領域Bの中心点のy座標を求める具体的な方法は、実施形態1と同様である。 When it is determined that the contact operation of the user with respect to the contact sensor 122 is detected (step S37; Yes), the position specifying unit 150e is based on the contact position indicated by the operation information received from the contact sensor 122 by the contact operation. The y coordinate of the center point P 0 of the enlarged area B in the original image of the enlarged image displayed on the display unit 130 is specified (step S38). Then, the position specifying unit 150e records the specified y coordinate in the primary storage device 152. A specific method for obtaining the y coordinate of the center point of the enlarged region B based on the operation information received from the contact sensor 122 is the same as that in the first embodiment.

接触式センサ122に対するユーザの接触操作を検出していないと判別した場合(ステップS37;No)、位置特定部150eは、直近の過去所定時間内に接触式センサ122に対するユーザの接触操作を検出したか否かを判別する(ステップS39)。具体的には、例えば、直近の過去所定時間内(例えば、100msec内)に接触式センサ122から操作情報を受信したか否かを判別する。直近の過去所定時間内に接触式センサ122に対するユーザの接触操作を検出していないと判別した場合(ステップS39;No)、位置特定部150eは、ステップS41に処理を進める。   When it is determined that the user's contact operation with respect to the contact sensor 122 is not detected (step S37; No), the position specifying unit 150e has detected the user's contact operation with respect to the contact sensor 122 within the latest past predetermined time. Whether or not (step S39). Specifically, for example, it is determined whether or not the operation information is received from the contact sensor 122 within the latest past predetermined time (for example, within 100 msec). If it is determined that the user's contact operation on the contact sensor 122 has not been detected within the most recent past predetermined time (step S39; No), the position specifying unit 150e advances the process to step S41.

直近の過去所定時間内に接触式センサ122に対するユーザの接触操作を検出したと判別した場合(ステップS39;Yes)、位置特定部150eは、直近の過去所定時間内に受信した操作情報に基づいて、表示部130に表示されている拡大画像の元の画像における拡大領域Bの中心点Pのy軸方向の移動速度を算出する(ステップS40)。具体的には、直近の過去所定時間内(例えば、100msec内)に受信した複数の操作情報が示すセンシング領域122aにおける位置について、対応する表示部130に表示されている拡大画像の元の画像上における位置、すなわち中心点Pのy座標を特定し、直近の過去所定時間内における移動距離を算出する。そして、算出された移動距離と、直近の過去所定時間とから、ユーザによる接触操作終了直前の中心点のy軸方向移動速度を算出する。また、位置特定部150eは、算出したy軸方向移動速度を一次記憶装置152に記録する。 When it is determined that the user's touch operation on the contact sensor 122 has been detected within the latest past predetermined time (step S39; Yes), the position specifying unit 150e is based on the operation information received within the latest past predetermined time. , it calculates the moving speed of the y-axis direction of the center point P 0 of the enlarged area B in the original image of the enlarged image displayed on the display unit 130 (step S40). Specifically, regarding the position in the sensing area 122a indicated by a plurality of operation information received within the latest past predetermined time (for example, within 100 msec), on the original image of the enlarged image displayed on the corresponding display unit 130 Is determined, that is, the y-coordinate of the center point P 0 , and the moving distance within the latest past predetermined time is calculated. Then, the y-axis direction moving speed of the center point immediately before the end of the contact operation by the user is calculated from the calculated moving distance and the latest past predetermined time. Further, the position specifying unit 150e records the calculated y-axis direction moving speed in the primary storage device 152.

次に、位置特定部150eは、一次記憶装置152に記録されたy軸方向移動速度から、中心点Pの移動後のy座標を特定する(ステップS41)。具体的には、位置特定部150eは、一次記憶装置152に記録されたy軸方向移動速度と中心点Pのy座標とに基づいて、中心点Pが一次記憶装置152に記録されたy軸方向移動速度で等速度運動した場合のy座標を算出する。そして、位置特定部150eは、算出したy座標を一次記憶装置152に記録する。 Then, the position specifying unit 150e from the primary to the storage device 152 records the y-axis direction moving speed, identifies the y-coordinate after movement of the center point P 0 (step S41). Specifically, the position specifying unit 150e, based on the y-coordinate of the primary storage device 152 y-axis direction movement speed and the center point P 0 recorded in the center point P 0 is recorded in the primary storage device 152 The y-coordinate is calculated when moving at a constant speed at the moving speed in the y-axis direction. Then, the position specifying unit 150e records the calculated y coordinate in the primary storage device 152.

次に、拡大画像生成部150dは、一次記憶装置152に記録された拡大領域Bの中心点Pのx座標、y座標に基づいて、拡大画像データを生成し、生成された拡大画像データを表示部130に出力する(ステップS42)。具体的には、拡大画像生成部150dは、一次記憶装置152に記録された拡大領域Bの中心点Pのx座標、y座標を中心とする所定の大きさを有する領域(例えば、横320ピクセル、縦240ピクセルの矩形領域)を新たな拡大領域Bとして特定する。そして拡大画像生成部150dは、特定した拡大領域Bにおける拡大画像データを生成し、表示部130に出力する。そして、拡大画像生成部150dは、ステップ32に処理を戻す。 Next, the enlarged image generating unit 150d includes, x coordinate of the center point P 0 of the enlarged region B which is recorded in the primary storage device 152, based on the y-coordinate, and generates an enlarged image data, the generated magnified image data It outputs to the display part 130 (step S42). Specifically, the enlarged image generating unit 150d, an area (for example, having a predetermined size to x-coordinate of the center point P 0 of the enlarged region B which is recorded in the primary storage unit 152, a y coordinate and center, 320w A rectangular area (pixel, vertical 240 pixels) is specified as a new enlarged area B. Then, the enlarged image generating unit 150d generates enlarged image data in the specified enlarged region B, and outputs it to the display unit 130. Then, the enlarged image generation unit 150d returns the process to step 32.

そして、制御部150(位置特定部150e、拡大画像生成部150d)は、ステップS32乃至42の処理を繰り返し行う。なお、制御部150は、例えばユーザが操作部120を介して表示画像の表示を終了する旨の操作を行った場合、すなわち操作部120から表示画像の表示終了指示を示す操作情報を受信した場合、表示制御処理を終了する。   Then, the control unit 150 (the position specifying unit 150e and the enlarged image generating unit 150d) repeatedly performs the processes in steps S32 to S42. Note that the control unit 150, for example, when the user performs an operation to end display image display via the operation unit 120, that is, when operation information indicating a display image display end instruction is received from the operation unit 120. The display control process ends.

次に、以上のように構成される構成表示処理装置100について、ユーザが表示部130に表示されている拡大画像について拡大領域の移動させる場合の具体的な動作を図14(a)及び(b)を用いて説明する。なお、図14(a)及び(b)は、拡大領域の移動を説明するための図であり、実際には拡大領域における拡大画像が表示部130に表示される。   Next, with regard to the configuration display processing apparatus 100 configured as described above, specific operations when the user moves the enlarged region with respect to the enlarged image displayed on the display unit 130 are illustrated in FIGS. ). FIGS. 14A and 14B are diagrams for explaining the movement of the enlarged region, and an enlarged image in the enlarged region is actually displayed on the display unit 130. FIG.

ユーザは拡大したい領域を移動させたい場合、移動させたい方向及び距離に応じて接触式センサ121、122のセンシング領域121a、122a上をスライド操作する。この操作に応じて、拡大領域の中心点が移動するため、拡大領域を移動させることができる。例えば、図14(a)に示すように、センシング領域121aのXの位置にユーザの指があった場合に、ユーザがXに向かってセンシング領域121a上をスライド操作すると、その拡大領域Bは、拡大領域Bの位置に移動する。従って、表示部130に表示される拡大画像も、拡大領域Bから拡大領域Bへの移動にともなって変化する。また、ユーザが指をセンシング領域121aのXからXの位置に移動させてスライド操作した後、センシング領域121aから指を離した場合、拡大領域は、拡大領域Bの位置における移動速度を維持した状態で矢印bの方向に移動する。また、拡大領域が矢印bの方向に移動している状態で、図14(b)に示すように、センシング領域122aのYの位置からYの位置に移動させてスライド操作すると、拡大領域は、拡大領域Bの位置から拡大領域Bの位置に斜めに移動する。これは、x軸方向の移動速度が維持されているからである。そしてさらにセンシング領域122aのYの位置で指を離した場合、拡大領域は、拡大領域Bの位置における移動速度を維持した状態で矢印bの方向に移動する。また、拡大領域の移動を止めたい場合には、ユーザが接触式センサ121、122のセンシング領域121a、122a上をスライド操作せずに指を停止した状態にすることで、拡大領域の移動は停止する。 When the user wants to move the area to be enlarged, the user performs a sliding operation on the sensing areas 121a and 122a of the contact sensors 121 and 122 according to the direction and distance to be moved. In response to this operation, the center point of the enlarged area moves, so that the enlarged area can be moved. For example, as shown in FIG. 14 (a), when a user's finger to the position of X 1 of the sensing area 121a, the user slid over the sensing area 121a toward the X 2, the enlarged region B 1 is moved to the position of the enlarged region B 2. Thus, the enlarged image displayed on the display unit 130 also changes in accordance with the movement of the enlarged region B 1 to enlarged region B 2. Further, after the user has slid to move the finger from X 1 of the sensing area 121a to the position of X 2, if the finger is released from the sensing area 121a, expansion region, the moving speed at the position of the enlarged region B 2 moves in the direction of arrow b 3 while maintaining. Further, with the enlarged region is moving in the direction of arrow b 3, as shown in FIG. 14 (b), when a slide operation is moved to the position of Y 5 from the position of Y 4 in the sensing area 122a, expanded region moves diagonally from the position of the enlargement area B 4 to the position of the enlargement area B 5. This is because the moving speed in the x-axis direction is maintained. And if further releases the finger position of Y 5 sensing regions 122a, enlarged region is moved in the direction of arrow b 6 while maintaining the moving speed at the position of the enlargement area B 5. In addition, when it is desired to stop the movement of the enlarged area, the movement of the enlarged area is stopped when the user stops the finger without performing a sliding operation on the sensing areas 121a and 122a of the contact sensors 121 and 122. To do.

以上のように、実施形態2に係る表示処理装置100において、ユーザは表示部130に表示されている拡大画像の拡大領域を選択する操作において、表示部130の枠に沿って設けられた2つの接触式センサ121、122により、任意の位置を拡大領域として選択することができる。また、接触式センサ121、122からユーザが指を離すと、その直前までの操作に応じた速度で拡大領域が等速度で移動する。従って、ユーザは、変化に富んだ拡大領域の移動操作が可能であり、ユーザに新しい印象を与えることができる。   As described above, in the display processing apparatus 100 according to the second embodiment, the user selects two enlarged areas provided along the frame of the display unit 130 in the operation of selecting the enlarged region of the enlarged image displayed on the display unit 130. An arbitrary position can be selected as an enlarged region by the contact sensors 121 and 122. When the user lifts his / her finger from the contact sensors 121 and 122, the enlarged region moves at a constant speed at a speed corresponding to the operation up to that point. Therefore, the user can move the enlarged region with various changes, and can give a new impression to the user.

なお、本発明は、上記の実施形態に限定されず、種々の変形及び応用が可能である。例えば、上記の実施形態では、接触式センサ121、122として1次元の位置情報を検出する2つのタッチセンサを用いているが、これに限られない。例えば、表示パネル132の上に配置される透明なタッチパネル式センサを用いることで、2次元の位置情報を取得してもよい。この場合、ユーザが接触した位置に対応する表示画像上の座標を拡大領域Bの中心点Pとして特定すればよい。また、表示パネル132の縁に沿って設けられるタッチセンサは2つに限られず、表示パネル132の縁に沿って3つ以上のタッチセンサが設けられてもよい。 In addition, this invention is not limited to said embodiment, A various deformation | transformation and application are possible. For example, in the above-described embodiment, two touch sensors that detect one-dimensional position information are used as the contact sensors 121 and 122, but the present invention is not limited thereto. For example, the two-dimensional position information may be acquired by using a transparent touch panel sensor disposed on the display panel 132. In this case, the coordinates on the display image corresponding to the position touched by the user may be specified as the center point P 0 of the enlarged region B. Further, the number of touch sensors provided along the edge of the display panel 132 is not limited to two, and three or more touch sensors may be provided along the edge of the display panel 132.

また、実施形態1では、表示画像を切り換える操作を受け付けるための第1操作部120aである接触式センサ123を表示パネル132の長手方向の縁に沿って設けたが、設ける場所はこれに限られない。例えば、表示パネル132の短手方向の縁や、表示部130の枠の側面に設けてもよい。また、上記の実施形態では、第1操作部120aの一例として接触式センサ123を用いる例を示したが、これに限られない。例えば、第1操作部120aは、ボタンや十字キーといったハードキーから構成されてもよい。   In the first embodiment, the contact sensor 123, which is the first operation unit 120a for accepting the operation of switching the display image, is provided along the longitudinal edge of the display panel 132. However, the location is limited to this. Absent. For example, the display panel 132 may be provided on the lateral edge of the display panel 132 or on the side surface of the frame of the display unit 130. In the above embodiment, an example in which the contact sensor 123 is used as an example of the first operation unit 120a has been described, but the present invention is not limited thereto. For example, the first operation unit 120a may be configured with hard keys such as buttons and cross keys.

また、実施形態1に係る表示処理装置100が、実施形態2に係る表示処理装置のように、拡大領域がユーザの操作後に等速度で移動してもよい。すなわち、実施形態1に係る位置特定部150cが、さらに実施形態2に係る位置特定部150eとして機能してもよい。具体的には、実施形態1に係る位置特定部150cは、図5のステップS23、24に代えて、実施形態2に係る位置特定部150eが行う図13のステップS32〜41に示す処理をすればよい。このような処理を行うことにより、位置特定部150cは、接触式センサ121、122に対するユーザの接触操作に基づいて、操作速度を算出する。そして、位置特定部150cは、接触式センサ121、122に対するユーザの接触操作終了後に、接触式センサ123に対するユーザの接触操作に基づいて特定された表示画像データが表す表示画像における拡大領域を算出された移動速度で等速度運動させた場合の、移動後の拡大領域の位置を特定する。そして拡大画像生成部150dは、移動後の拡大領域における拡大画像データを生成し、表示部130に出力する。   Further, in the display processing device 100 according to the first embodiment, the enlarged region may move at a constant speed after the user's operation, like the display processing device according to the second embodiment. That is, the position specifying unit 150c according to the first embodiment may further function as the position specifying unit 150e according to the second embodiment. Specifically, the position specifying unit 150c according to the first embodiment performs the processes shown in steps S32 to S41 in FIG. 13 performed by the position specifying unit 150e according to the second embodiment, instead of steps S23 and S24 in FIG. That's fine. By performing such processing, the position specifying unit 150c calculates an operation speed based on the user's contact operation on the contact sensors 121 and 122. Then, the position specifying unit 150c calculates an enlarged region in the display image represented by the display image data specified based on the user's contact operation on the contact sensor 123 after the user's contact operation on the contact sensors 121 and 122 is completed. The position of the enlarged area after movement is specified when the movement is performed at a constant speed at the moving speed. Then, the enlarged image generation unit 150d generates enlarged image data in the enlarged area after movement, and outputs it to the display unit 130.

なお、この発明の実施の形態にかかる表示処理装置100は、専用の装置によらず、通常のコンピュータシステムを用いて実現可能である。例えば、ネットワークカード等を備えたコンピュータに上述の処理を実行するためのプログラムを格納した媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)から当該プログラムをインストールすることにより、上述の処理を実行する表示処理装置を構成することができる。   Note that the display processing apparatus 100 according to the embodiment of the present invention can be realized by using a normal computer system without using a dedicated apparatus. For example, the above-described processing is executed by installing the program from a medium (flexible disk, CD-ROM, DVD-ROM, etc.) storing the program for executing the above-described processing in a computer equipped with a network card or the like. A display processing device can be configured.

また、コンピュータにプログラムを供給するための手法は任意である。例えば、通信回線、通信ネットワーク、通信システム等を介して供給してもよい。一例を挙げると、通信ネットワークの掲示板(BBS)に当該プログラムを掲示し、これをネットワークを介して搬送波に重畳して配信することにより、上述の処理を実行することができる。   In addition, a method for supplying the program to the computer is arbitrary. For example, you may supply via a communication line, a communication network, a communication system, etc. For example, the above-described processing can be executed by posting the program on a bulletin board (BBS) of a communication network and distributing it on a carrier wave via the network.

100…表示処理装置、110…記憶部、111…二次記憶装置、112…制御プログラム、113…表示画像DB、120…操作部、120a…第1操作部、120b…第2操作部、121〜123…接触式センサ、121a〜123a…センシング領域、124…入力キー、130…表示部、131…駆動回路、132…表示パネル、140…読出・書込部、141…メディアコントローラ、150…制御部、150a…表示画像特定部、150b…画像特定部、150c…位置特定部、150d…拡大画像生成部、150e…位置特定部、151…CPU、152…一次記憶装置 DESCRIPTION OF SYMBOLS 100 ... Display processing apparatus, 110 ... Memory | storage part, 111 ... Secondary storage device, 112 ... Control program, 113 ... Display image DB, 120 ... Operation part, 120a ... 1st operation part, 120b ... 2nd operation part, 121- DESCRIPTION OF SYMBOLS 123 ... Contact-type sensor, 121a-123a ... Sensing area | region, 124 ... Input key, 130 ... Display part, 131 ... Drive circuit, 132 ... Display panel, 140 ... Read-write part, 141 ... Media controller, 150 ... Control part , 150a ... display image specifying unit, 150b ... image specifying unit, 150c ... position specifying unit, 150d ... enlarged image generating unit, 150e ... position specifying unit, 151 ... CPU, 152 ... primary storage device

Claims (4)

画像を表示する表示処理装置であって、
ユーザによる第1の操作を受け付ける第1操作部と、
前記第1操作部が前記ユーザによる前記第1の操作を受け付けている間に、前記ユーザによる第2の操作を受け付ける第2操作部と、
複数の画像を記憶する記憶手段と、
前記画像の特定領域を拡大した拡大画像を生成して表示する拡大画像生成手段と、
前記第1操作部が受け付けている前記ユーザによる前記第1の操作により、前記記憶手段に記憶された前記複数の画像から1つの画像を順次特定する第1命令実行手段と、
前記第1命令実行手段が特定している前記画像において、前記第2操作部が受け付けている前記ユーザによる前記第2の操作に対応する位置を順次特定し、前記第1命令実行手段が前記画像を順次特定している間に、前記第1命令実行手段が特定している画像において、前記第2の操作により特定した位置に対応する領域を前記拡大画像生成手段により拡大表示する第2命令実行手段と、
を備えることを特徴とする表示処理装置。
A display processing device for displaying an image,
A first operation unit for receiving a first operation by a user;
A second operation unit that accepts a second operation by the user while the first operation unit accepts the first operation by the user;
Storage means for storing a plurality of images;
An enlarged image generating means for generating and displaying an enlarged image obtained by enlarging a specific area of the image;
First command execution means for sequentially specifying one image from the plurality of images stored in the storage means by the first operation by the user accepted by the first operation section;
In the image specified by the first command execution means, the position corresponding to the second operation by the user accepted by the second operation unit is sequentially specified, and the first command execution means is the image. Execution of a second command to enlarge and display the region corresponding to the position specified by the second operation in the image specified by the first command execution means while the images are specified sequentially. Means,
A display processing apparatus comprising:
前記第2命令実行手段は、前記第2操作部が受け付けている前記ユーザによる前記第2の操作に基づいて、前記第2の操作の操作速度を算出し、前記第2操作部が前記ユーザによる前記第2の操作を受け付けた後に、算出された前記第2の操作の操作速度に対応する移動速度で前記位置を移動させる、
ことを特徴とする請求項に記載の表示処理装置。
The second command execution means calculates an operation speed of the second operation based on the second operation by the user accepted by the second operation unit, and the second operation unit is calculated by the user. After receiving the second operation, the position is moved at a movement speed corresponding to the calculated operation speed of the second operation;
The display processing apparatus according to claim 1 .
画像を表示する表示処理装置において、
ユーザによる第1の操作を受け付ける第1操作ステップと、
前記第1操作ステップが前記ユーザによる前記第1の操作を受け付けている間に、前記ユーザによる第2の操作を受け付ける第2操作ステップと、
複数の画像を記憶する記憶ステップと、
前記画像の特定領域を拡大した拡大画像を生成して表示する拡大画像生成ステップと、
前記第1操作ステップが受け付けている前記ユーザによる前記第1の操作により、前記記憶ステップで記憶された前記複数の画像から1つの画像を順次特定する第1命令実行ステップと、
前記第1命令実行ステップが特定している前記画像において、前記第2操作ステップが受け付けている前記ユーザによる前記第2の操作に対応する位置を順次特定し、前記第1命令実行ステップが前記画像を順次特定している間に、前記第1命令実行ステップが特定している画像において、前記第2の操作により特定した位置に対応する領域を前記拡大画像生成ステップにより拡大表示する第2命令実行ステップと、
を備えることを特徴とする表示処理方法。
In a display processing device that displays an image,
A first operation step for receiving a first operation by a user;
A second operation step for accepting a second operation by the user while the first operation step accepts the first operation by the user;
A storage step for storing a plurality of images;
An enlarged image generating step for generating and displaying an enlarged image obtained by enlarging a specific area of the image;
A first command execution step of sequentially specifying one image from the plurality of images stored in the storage step by the first operation by the user accepted by the first operation step;
In the image specified by the first command execution step, a position corresponding to the second operation by the user accepted by the second operation step is sequentially specified, and the first command execution step is performed by the image. In the image specified by the first command execution step, the second command execution for enlarging and displaying the region corresponding to the position specified by the second operation is performed by the enlarged image generation step. Steps,
A display processing method comprising:
ユーザによる第1の操作を受け付ける第1操作部と、前記第1操作部が前記ユーザによる前記第1の操作を受け付けている間に、前記ユーザによる第2の操作を受け付ける第2操作部と、を備えるコンピュータを、
複数の画像を記憶する記憶手段、
前記画像の特定領域を拡大した拡大画像を生成して表示する拡大画像生成手段、
前記第1操作部が受け付けている前記ユーザによる前記第1の操作により、前記記憶手段に記憶された前記複数の画像から1つの画像を順次特定する第1命令実行手段、
前記第1命令実行手段が特定している前記画像において、前記第2操作部が受け付けている前記ユーザによる前記第2の操作に対応する位置を順次特定し、前記第1命令実行手段が前記画像を順次特定している間に、前記第1命令実行手段が特定している画像において、前記第2の操作により特定した位置に対応する領域を前記拡大画像生成手段により拡大表示する第2命令実行手段、
として機能させることを特徴とする表示処理プログラム。
A first operation unit that accepts a first operation by a user; a second operation unit that accepts a second operation by the user while the first operation unit accepts the first operation by the user; the Bei obtain computer,
Storage means for storing a plurality of images;
An enlarged image generating means for generating and displaying an enlarged image obtained by enlarging a specific area of the image;
First command execution means for sequentially specifying one image from the plurality of images stored in the storage means by the first operation by the user accepted by the first operation section;
In the image specified by the first command execution means, the position corresponding to the second operation by the user accepted by the second operation unit is sequentially specified, and the first command execution means is the image. Execution of a second command to enlarge and display the region corresponding to the position specified by the second operation in the image specified by the first command execution means while the images are specified sequentially. means,
A display processing program characterized by functioning as
JP2010003284A 2010-01-08 2010-01-08 Display processing apparatus, display processing method, and display processing program Expired - Fee Related JP5515752B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010003284A JP5515752B2 (en) 2010-01-08 2010-01-08 Display processing apparatus, display processing method, and display processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010003284A JP5515752B2 (en) 2010-01-08 2010-01-08 Display processing apparatus, display processing method, and display processing program

Publications (3)

Publication Number Publication Date
JP2011142589A JP2011142589A (en) 2011-07-21
JP2011142589A5 JP2011142589A5 (en) 2013-02-07
JP5515752B2 true JP5515752B2 (en) 2014-06-11

Family

ID=44458112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010003284A Expired - Fee Related JP5515752B2 (en) 2010-01-08 2010-01-08 Display processing apparatus, display processing method, and display processing program

Country Status (1)

Country Link
JP (1) JP5515752B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4557058B2 (en) * 2007-12-07 2010-10-06 ソニー株式会社 Information display terminal, information display method, and program

Also Published As

Publication number Publication date
JP2011142589A (en) 2011-07-21

Similar Documents

Publication Publication Date Title
US20190042084A1 (en) Display apparatus and display method
JP5429060B2 (en) Display control apparatus, display control method, display control program, and recording medium on which this display control program is recorded
JP3865141B2 (en) Information processing program and information processing apparatus
JP5537040B2 (en) Display control apparatus and display control method
JP5511573B2 (en) Display control apparatus, control method therefor, program, and storage medium
US20110157047A1 (en) Information processing apparatus and control method therefor
US8947464B2 (en) Display control apparatus, display control method, and non-transitory computer readable storage medium
JP5889028B2 (en) Moving picture recording apparatus, control method therefor, computer program, and storage medium
CN103294337A (en) Electronic apparatus and control method
CN102214064A (en) Information processing apparatus, information processing method, and program
CN110110259A (en) It navigates using between the content item of array pattern in a browser
JP6081409B2 (en) Print order receiving machine, its operating method and operating program
JP5441748B2 (en) Display control apparatus, control method therefor, program, and storage medium
US7742095B2 (en) Information processing apparatus, method and storage medium
JP2010287121A (en) Information processor, program, recording medium and display controller
JP5875262B2 (en) Display control device
JP5835240B2 (en) Information processing apparatus, information processing method, and program
JP6271125B2 (en) Electronic device, display method, and program
JP2006351027A (en) Information processing program and information processing device
JP2022179604A (en) Information processing apparatus, information processing method, and program
JP5515752B2 (en) Display processing apparatus, display processing method, and display processing program
JP5749245B2 (en) Electronic device, display method, and display program
US8970621B2 (en) Information processing apparatus and control method thereof, and recording medium for changing overlap order of objects
JP6362110B2 (en) Display control device, control method therefor, program, and recording medium
JP7030527B2 (en) Electronic devices, information processing methods, programs and storage media

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140317

R150 Certificate of patent or registration of utility model

Ref document number: 5515752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees