JP5515752B2 - Display processing apparatus, a display processing method and display processing program - Google Patents

Display processing apparatus, a display processing method and display processing program Download PDF

Info

Publication number
JP5515752B2
JP5515752B2 JP2010003284A JP2010003284A JP5515752B2 JP 5515752 B2 JP5515752 B2 JP 5515752B2 JP 2010003284 A JP2010003284 A JP 2010003284A JP 2010003284 A JP2010003284 A JP 2010003284A JP 5515752 B2 JP5515752 B2 JP 5515752B2
Authority
JP
Japan
Prior art keywords
operation
display
unit
user
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010003284A
Other languages
Japanese (ja)
Other versions
JP2011142589A (en
JP2011142589A5 (en
Inventor
直隆 上原
孝行 小金
純人 篠原
祐人 布川
哲也 半田
公靖 水野
岳浩 相原
一志 雨谷
Original Assignee
カシオ計算機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カシオ計算機株式会社 filed Critical カシオ計算機株式会社
Priority to JP2010003284A priority Critical patent/JP5515752B2/en
Publication of JP2011142589A publication Critical patent/JP2011142589A/en
Publication of JP2011142589A5 publication Critical patent/JP2011142589A5/en
Application granted granted Critical
Publication of JP5515752B2 publication Critical patent/JP5515752B2/en
Application status is Active legal-status Critical
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数の画像を切り換えて表示部に表示する表示処理装置、表示処理方法及び表示処理プログラムに関する。 The present invention relates to a display processing device for displaying on the display unit switches the plurality of images, a display processing method and display processing program.

従来、タッチパネル画面上に表示された道路地図において、ユーザが画面上に表示されたスイッチ画像をタッチした状態でスクロール操作することにより、ユーザの操作に応じて道路地図がスクロールするように画像を表示するナビゲーション装置がある(例えば、特許文献1参照)。 Conventionally, in the road map displayed on the touch panel, when the user scrolling operation in a state of touching the switch images displayed on a screen, display the image as a road map is scrolled in accordance with the operation by the user there is a navigation device for (e.g., see Patent Document 1).

特開2004−117830号公報 JP 2004-117830 JP

しかし、特許文献1に記載のナビゲーション装置では、画面上に表示された領域の画像をキーやアイコンによりスクロール操作することにより、その領域近辺の領域の画像を表示しているに過ぎない。 However, in the navigation apparatus described in Patent Document 1, by scrolling the image key or icon area displayed on the screen, merely displays the image of the area in the vicinity of that region. 従って、このようなスクロール操作により特定される領域の画像が表示される装置は、ユーザが予め想定できる領域の画像を表示するものであり、ありきたりなものであるという印象をユーザに与えるという問題がある。 Therefore, such a scroll operation by the device to be displayed the image of the area specified is for displaying an image of an area which the user can previously assumed, the problem of giving the user the impression that those of commonplace there is.

本発明はかかる問題点に鑑みてなされたものであって、ユーザに新しい印象を与えることが可能な表示処理装置、表示処理方法及び表示処理プログラムを提供することを目的とする。 The present invention was made in view of the above problems, the display processing device capable of providing a new impression to the user, and an object thereof is to provide a display processing method and display processing program.

上記目的を達成するため、本発明の第1の観点に係る表示処理装置は、 To achieve the above object, a display processing apparatus according to a first aspect of the present invention,
画像を表示する表示処理装置であって、 A display processing device for displaying an image,
ユーザによる第1の操作を受け付ける第1操作部と、 A first operation unit that receives the first operation by the user,
前記第1操作部が前記ユーザによる前記第1の操作を受け付けている間に、前記ユーザによる第2の操作を受け付ける第2操作部と、 While the first operation unit is accepting the first operation by the user, a second operation unit that receives second operation by the user,
複数の画像を記憶する記憶手段と、 Storage means for storing a plurality of images,
前記画像の特定領域を拡大した拡大画像を生成して表示する拡大画像生成手段と、 An enlarged image generating means for generating and displaying an enlarged image obtained by enlarging the specific area of the image,
前記第1操作部が受け付けている前記ユーザによる前記第1の操作により、 前記記憶手段に記憶された前記複数の画像から1つの画像を順次特定する第1命令実行手段と、 By the first operation by the user to the first operation section is accepted, the first instruction execution means for sequentially specifying one image from the plurality of images stored in the storage means,
前記第1命令実行手段が特定している前記画像において、前記第2操作部が受け付けている前記ユーザによる前記第2の操作に対応する位置を順次特定し、前記第1命令実行手段が前記画像を順次特定している間に、前記第1命令実行手段が特定している画像において、前記第2の操作により特定した位置に対応する領域を前記拡大画像生成手段により拡大表示する第2命令実行手段と、 In the image where the first instruction execution unit is identified, the second operating portion is a position corresponding to the second operation by the user are sequentially identified that accepted the first instruction execution unit the image the while sequentially particular, in an image where the first instruction execution unit is identified, a second instruction execution the region corresponding to the specified position by the second operation to enlarge by the enlarged image generating unit and means,
を備えることを特徴とする。 Characterized in that it comprises a.

上記目的を達成するため、本発明の第2の観点に係る表示処理方法は、 To achieve the above object, a display processing method according to a second aspect of the present invention,
画像を表示する表示処理装置において、 In the display processing device for displaying an image,
ユーザによる第1の操作を受け付ける第1操作ステップと、 A first operation step of accepting a first operation by the user,
前記第1操作ステップが前記ユーザによる前記第1の操作を受け付けている間に、前記ユーザによる第2の操作を受け付ける第2操作ステップと、 While the first operation step is accepting the first operation by the user, and a second operation step of accepting a second operation by the user,
複数の画像を記憶する記憶ステップと、 A storing step of storing a plurality of images,
前記画像の特定領域を拡大した拡大画像を生成して表示する拡大画像生成ステップと、 An enlarged image generating step for generating and displaying an enlarged image obtained by enlarging the specific area of the image,
前記第1操作ステップが受け付けている前記ユーザによる前記第1の操作により、 前記記憶ステップで記憶された前記複数の画像から1つの画像を順次特定する第1命令実行ステップと、 By the first operation by the user to the first operation step is accepting a first instruction execution step of sequentially identifying one image from the plurality of images stored in said storing step,
前記第1命令実行ステップが特定している前記画像において、前記第2操作ステップが受け付けている前記ユーザによる前記第2の操作に対応する位置を順次特定し、前記第1命令実行ステップが前記画像を順次特定している間に、前記第1命令実行ステップが特定している画像において、前記第2の操作により特定した位置に対応する領域を前記拡大画像生成ステップにより拡大表示する第2命令実行ステップと、 In the image the first instruction execution step is identified, the second sequence to identify the position corresponding to the second operation by the user operating step is accepted, the first instruction execution step is the image the while sequentially particular, in an image where the first instruction execution step is identified, a second instruction execution the region corresponding to the specified position by the second operation to enlarge by the enlarged image generating step and the step,
を備えることを特徴とする。 Characterized in that it comprises a.

上記目的を達成するため、本発明の第3の観点に係る表示処理プログラムは、 To achieve the above object, a display processing program according to a third aspect of the present invention,
ユーザによる第1の操作を受け付ける第1操作部と、前記第1操作部が前記ユーザによる前記第1の操作を受け付けている間に、前記ユーザによる第2の操作を受け付ける第2操作部と、を備えるコンピュータを、 A first operation unit that receives the first operation by the user, while the first operation unit is accepting the first operation by the user, a second operation unit that receives second operation by the user, the Bei obtain computer,
複数の画像を記憶する記憶手段、 Storage means for storing a plurality of images,
前記画像の特定領域を拡大した拡大画像を生成して表示する拡大画像生成手段、 Enlarged image generating means for generating and displaying an enlarged image obtained by enlarging the specific area of the image,
前記第1操作部が受け付けている前記ユーザによる前記第1の操作により、 前記記憶手段に記憶された前記複数の画像から1つの画像を順次特定する第1命令実行手段、 Wherein by the first operation by the user first operating unit is accepted, the first instruction execution means for sequentially specifying one image from the plurality of images stored in the storage means,
前記第1命令実行手段が特定している前記画像において、前記第2操作部が受け付けている前記ユーザによる前記第2の操作に対応する位置を順次特定し、前記第1命令実行手段が前記画像を順次特定している間に、前記第1命令実行手段が特定している画像において、前記第2の操作により特定した位置に対応する領域を前記拡大画像生成手段により拡大表示する第2命令実行手段、 In the image where the first instruction execution unit is identified, the second operating portion is a position corresponding to the second operation by the user are sequentially identified that accepted the first instruction execution unit the image the while sequentially particular, in an image where the first instruction execution unit is identified, a second instruction execution the region corresponding to the specified position by the second operation to enlarge by the enlarged image generating unit means,
として機能させることを特徴とする。 Characterized in that to function as a.

本発明によれば、ユーザに新しい印象を与えることが可能な表示処理装置、表示処理方法及び表示処理プログラムを提供できる。 According to the present invention, the display processing device capable of providing a new impression to the user, can provide a display processing method and display processing program.

本発明の実施形態1に係る表示処理装置の各部の機能を示すブロック図である。 Is a block diagram showing the functions of the units included in the display processing apparatus according to the first embodiment of the present invention. 本発明の実施形態1に係る表示処理装置のハードウェア構成を示すブロック図である。 The hardware configuration of the display processing apparatus according to the first embodiment of the present invention is a block diagram showing. 本発明の実施形態1に係る表示処理装置の概略外観図である。 It is a schematic external view of a display processing apparatus according to the first embodiment of the present invention. 実施形態1に係る制御部による表示制御処理の動作の一例を示すフローチャートである。 Is a flow chart showing an example of the operation of the display control processing by the control unit according to the first embodiment. 実施形態1に係る制御部による拡大画像生成処理の動作の一例を示すフローチャートである。 Is a flow chart showing an example of the operation of the enlarged image generation processing by the control unit according to the first embodiment. 表示画像DBの一例を示す図である。 Is a diagram illustrating an example of a display image DB. 特定用センシング領域を説明するための図である。 Is a diagram for describing particular for sensing area. (a)は拡大領域の特定方法を説明するための図、(b)は、拡大画像を表す図である。 (A) is a diagram for explaining a specific method of expanding area, (b) are a diagram showing an enlarged image. 拡大領域を移動させる方法を説明するための図である。 It is a diagram for explaining a method of moving the expansion region. (a)〜(c)は、拡大領域を移動させる方法を説明するための図、(d)〜(f)は、拡大画像を表すである。 (A) ~ (c) are views for explaining a method of moving the expansion area, (d) ~ (f) is representative of the larger picture. 本発明の実施形態2に係る表示処理装置の各部の機能を示すブロック図である。 Is a block diagram showing the functions of the units included in the display processing apparatus according to a second embodiment of the present invention. 本発明の実施形態2に係る表示処理装置のハードウェア構成を示すブロック図である。 The hardware configuration of the display processing apparatus according to a second embodiment of the present invention is a block diagram showing. 実施形態2に係る制御部による拡大画像生成処理の動作の一例を示すフローチャートである。 Is a flow chart showing an example of the operation of the enlarged image generation processing by the control unit according to the second embodiment. (a)及び(b)は拡大領域を移動させる方法を説明するための図である。 (A) and (b) are views for explaining a method of moving the expansion region.

以下に、本発明の実施形態に係る表示処理装置100について説明する。 The following describes the display processing apparatus 100 according to an embodiment of the present invention. 以下では、本発明の実施形態に係る表示処理装置100として、デジタル写真等を表示するデジタルフォトスタンドを例として説明しているが、これに限られず、例えばデジタルカメラやパーソナルコンピュータであってもよい。 In the following, the display processing apparatus 100 according to an embodiment of the present invention has been described digital photo stand that displays a digital photograph or the like as an example, not limited thereto, and may be, for example, a digital camera, a personal computer .

(実施形態1) (Embodiment 1)
まず、実施形態1に係る表示処理装置100の構成を図1及び図2を参照して説明する。 First, it will be described with reference to FIGS. 1 and 2 the configuration of the display processing apparatus 100 according to the first embodiment. 表示処理装置100は、図1に示すように、記憶部110と、操作部120と、表示部130と、読出・書込部140と、制御部150と、を備える。 The display processing apparatus 100 includes, as shown in FIG. 1, a storage unit 110, an operation unit 120, a display unit 130, a reading and writing portion 140, a control unit 150, a.

記憶部110は、制御部150が処理中に使用する又は生成したデータ(データベース等を含む)や、制御部150が読み出した画像データ等を適宜記憶する。 Storage unit 110, the control unit 150 (including the database, etc.) used to or generated data during processing and control unit 150 appropriately stores the read image data and the like. 記憶部110は、例えば、二次記憶装置111によって実現される。 Storage unit 110 is realized by, for example, secondary storage device 111. 二次記憶装置111には、制御プログラム112、表示画像DB(データベース)113等が記録される。 A secondary storage device 111, a control program 112, a display image DB (database) 113, and the like are recorded. 制御プログラム112、表示画像DB113等のプログラムやデータは、CPU(Central Processing Unit)151によって一次記憶装置152に読み出されて、CPU151によって使用、参照される。 Control program 112, program and data such as the display image DB113 is, CPU and read by (Central Processing Unit) 151 in the primary storage device 152, used by the CPU 151, is referred to. 二次記憶装置111は、ハードディスク、フラッシュメモリ等の記憶装置によって構成される。 The secondary storage device 111, a hard disk, constituted by a storage device such as a flash memory.

操作部120は、ユーザの操作を受け付け、受け付けた操作に応じた操作データ(操作情報)を制御部150に出力する。 Operation unit 120 accepts a user operation, and outputs operation data in accordance with the received operation (operation information) to the control unit 150. 操作部120は、ユーザによる、表示部130に表示されている画像から切り換えられて表示される画像を特定する操作を受け付ける第1操作部120aと、ユーザによる後述する拡大領域を特定するための操作を受け付ける第2操作部120bと、を含む。 Operation unit 120, the user according to a first operating portion 120a for receiving an operation for specifying an image to be displayed is switched from the image displayed on the display unit 130, an operation for specifying the enlarged region to be described later by the user and a second operating portion 120b that accepts. 第1操作部120aは、例えば、図2に示す接触式センサ123によって実現される。 The first operating portion 120a is implemented by, for example, contact sensor 123 shown in FIG. また、第2操作部120bは、例えば、図2に示す接触式センサ121、122によって実現される。 Further, the second operating portion 120b is implemented by, for example, contact sensor 121 shown in FIG.

接触式センサ121〜123は、例えば、図3に示すように表示部130の枠の長手方向(横方向)又は短手方向(縦方向)の辺に沿って設けられた、例えば静電容量式、感圧式等のタッチセンサである。 Contact sensor 121 to 123, for example, provided along the sides of the longitudinal direction of the frame of the display unit 130 as shown in FIG. 3 (horizontal direction) or transverse direction (vertical direction), for example, a capacitance type , a touch sensor, such as a pressure-sensitive. 接触式センサ121〜123は、ユーザの接触式センサ121〜123に対するスライド操作における接触位置を検出するための領域であるセンシング領域121a〜123aを有する。 Contact sensor 121 to 123, has a region in which sensing region 121a~123a for detecting a contact position of the slide operation on the user's contact sensor 121-123. ここで、以下の記載において、「スライド操作」とは、ユーザが自身の指等をセンシング領域121a、122a、123aに接触させた状態で移動させる操作をいうものとする。 Here, in the following description, the term "slide operation" refers to the operation by the user sensing region 121a their finger or the like, 122a, is moved in a state in contact with the 123a. ユーザがセンシング領域121a〜123a上をスライド操作すると、接触式センサ121〜123はセンシング領域121a〜123aにおける、ユーザの指等が接触した位置を示す操作情報を出力する。 When the user sliding operation on the sensing area 121A~123a, contact sensor 121 to 123 in the sensing area 121A~123a, outputs operation information indicating the position where the finger of the user has touched. 接触式センサ121のセンシング領域121aは、表示部130の表示パネル132の長手方向の縁に隣接して設けられる。 Sensing region 121a of the contact sensor 121 is provided adjacent to the longitudinal edges of the display panel 132 of the display unit 130. また、接触式センサ122のセンシング領域122aは、表示部130の表示パネル132の短手方向の縁に隣接して設けられる。 Also, the sensing area 122a of the contact sensor 122 is provided adjacent the lateral direction of the edge of the display panel 132 of the display unit 130. また、接触式センサ123のセンシング領域123aは、表示部130の表示パネル132の長手方向の縁であって、センシング領域121aが隣接する縁と対向する縁に隣接して設けられる。 Also, the sensing area 123a of the contact sensor 123, a longitudinal edge of the display panel 132 of the display unit 130 is provided adjacent to the edge of the sensing area 121a is opposed to the edge adjacent.

また、センシング領域121aにおける位置と、表示部130に表示される画像における、センシング領域121aの長手方向の位置と、が互いに一致するように、予めその対応関係が記憶部110に記録されているものとする。 Further, the position in the sensing region 121a, in the image displayed on the display unit 130, and the longitudinal position of the sensing area 121a, as but coincide with each other, which advance the correspondence relation stored in the storage unit 110 to. 同様に、センシング領域122aにおける位置と、表示部130に表示される画像における、センシング領域122aの長手方向の位置と、が互いに一致するように、予めその対応関係が記憶部110に記録されているものとする。 Similarly, the position in the sensing region 122a, in the image displayed on the display unit 130, and the longitudinal position of the sensing area 122a, as but coincide with each other, in advance the correspondence relation stored in the storage unit 110 and things. 具体的には、例えば、図7に示すように、センシング領域121aの長手方向に沿ってX軸、センシング領域122aの長手方向に沿ってY軸、表示部130に表示されている画像における位置を表すためのx軸及びy軸が規定されているとする。 Specifically, for example, as shown in FIG. 7, X-axis along the longitudinal direction of the sensing area 121a, Y-axis along the longitudinal direction of the sensing area 122a, the position in the image displayed on the display unit 130 x-axis and y-axis to represent is to be defined. このとき、センシング領域121aにおける位置X=X は、表示部130に表示されている画像におけるx座標x=x に対応する。 In this case, the position X = X 1 in the sensing area 121a corresponds to the x-coordinate x = x 1 in an image displayed on the display unit 130. また、センシング領域122aにおける位置Y=Y は、表示部130に表示されている画像におけるy座標y=y に対応する。 The position Y = Y 1 in the sensing area 122a corresponds to the y-coordinate y = y 1 in the image displayed on the display unit 130.

また、センシング領域123aはさらに、図7に示すように、後述する表示制御処理において特定される表示画像データの数Nに対応する特定用センシング領域A 〜A を有する。 Also, the sensing area 123a further, as shown in FIG. 7, has a particular for sensing area A 1 to A N corresponding to the number N of display image data specified in the display control process will be described later. 特定用センシング領域A 〜A は、それぞれセンシング領域123aの長手方向について略等しい長さを有している。 Specifying sensing region A 1 to A N are respectively a length substantially equal the longitudinal direction of the sensing area 123a.

入力キー124は、ユーザからの押圧操作に応じたオン信号等を操作情報として出力する。 Input key 124 outputs an ON signal or the like in accordance with the pressing operation of the user as the operation information. 入力キー124は、例えば、画像選択の終了に用いられる終了キー、表示画像の表示の開始及び停止に用いられる再生・停止キー等の1以上のキーによって構成される。 Input keys 124 are, for example, the image selecting the Exit key used ends, constituted by one or more keys such as play, stop key used start and stop the display of the display image.

表示部130は、制御部150から出力される画像データに基づいて、画像、操作画面等を表示する。 The display unit 130, based on the image data outputted from the control unit 150, and displays an image, an operation screen or the like. 表示部130は、例えば、駆動回路131と表示パネル132とから実現される。 Display unit 130 is realized, for example, from the driving circuit 131 and the display panel 132.. 駆動回路131は、CPU151から出力される画像データに従って表示パネル132を駆動し、表示パネル132に画像、操作画面等を表示させる。 Drive circuit 131 drives the display panel 132 in accordance with image data output from the CPU 151, the image on the display panel 132 to display an operation screen and the like. 表示パネル132は、液晶パネル、有機EL(Electro Luminescence)パネル等によって構成される。 Display panel 132 is composed of a liquid crystal panel, an organic EL (Electro Luminescence) panel or the like.

読出・書込部140は、記憶媒体40に対してデータ(例えば画像データ)を読み書きする。 Reading and writing portion 140 reads and writes data (e.g., image data) to the storage medium 40. 読出・書込部140は、例えばメディアコントローラ141によって実現される。 Reading and writing portion 140 is realized by, for example, the media controller 141. メディアコントローラ141は、メモリーカード41に対してデータを読み書きする。 The media controller 141 reads and writes data to the memory card 41.

記録媒体40は、各種のデータを記憶する。 Recording medium 40 stores various data. 記録媒体40は、デジタルカメラが撮影した撮影画像(例えば、デジタル写真)を表すデータである画像データを記録する。 Recording medium 40, the captured image a digital camera is captured (e.g., digital photographs) to record the image data is data representing. 記録媒体40は、フラッシュメモリ等から構成されるメモリーカード41によって実現される。 Recording medium 40 is realized by the memory card 41 and a flash memory or the like.

制御部150は、表示処理装置100全体を制御する。 Control unit 150 controls the entire display processor 100. 制御部150は、表示画像特定部150aと、画像特定部150bと、位置特定部150cと、拡大画像生成部150dと、として機能する。 Controller 150, a display image selecting unit 150a, and the image selecting unit 150b, a position specifying unit 150c, and the enlarged image generating unit 150d, and functions as a.

表示画像特定部150aは、記憶媒体40が記憶する複数の画像データを用いて、表示部130に出力する表示画像データを特定するものとして機能する。 Display image specifying unit 150a, by using a plurality of image data storage medium 40 stores functions as specifying the display image data to be output to the display unit 130. 例えば、表示画像特定部150aは、操作部120が出力する操作情報に基づいて、記憶媒体40が記憶する複数の画像データの中から、表示部130に表示する画像(以下、表示画像という)を表す表示画像データを特定する。 For example, the display image selecting unit 150a, based on the operation information operation unit 120 outputs, from the storage medium 40 is a plurality of image data to be stored, the image to be displayed on the display unit 130 (hereinafter, referred to as display image) of identifying the display image data representing. そして、表示画像特定部150aは、特定した表示画像データと、表示画像の表示順序とを対応付けて記憶する表示画像DB113を生成し、記憶部110に記録する。 The display image selecting unit 150a generates a display image DB113 that in association with the specified display image data, and a display order of the display image, and records in the storage unit 110.

また、表示画像特定部150aは、特定した表示画像データの数だけセンシング領域123aを分割し、複数の特定用センシング領域を規定する。 The display image specifying unit 150a, the sensing area 123a is divided by the number of identified display image data, defining a plurality of specifying sensing region. そして、表示画像特定部150aは、規定された複数の特定用センシング領域のそれぞれについて、センシング領域123aにおける位置を表示順序と対応付けて表示画像DB113に記録する。 Then, the display image specifying unit 150a, for each of the defined plurality of specific for sensing regions, and records the display image DB113 in association with display order positions in the sensing area 123a.

ここで、表示画像DB113は、表示順序と、表示画像データと、センシング領域123aにおける特定用センシング領域の位置と、が対応付けて記録されているものである。 Here, the display image DB113 includes a display order, the display image data, in which the position of the specific for sensing area, are recorded in association in the sensing area 123a. 図6に、表示画像特定部150aがN個の表示画像データを特定した場合に生成される表示画像DB113の一例を示す。 6 shows an example of a display image DB113 generated when the display image selecting unit 150a has identified the N display image data. 図6の「aaa1」、「aaa2」、…、「aaaN」は、それぞれ表示画像データを示す。 "Aaa1", "aaa2" in FIG. 6, ..., "aaaN", respectively showing the display image data. これらの表示画像データ「aaa1」、「aaa2」、…、「aaaN」が表示部130に出力されると、各表示画像データが表す表示画像が表示部130に表示される。 These display image data "aaa1", "aaa2", ..., "aaaN" is when it is output to the display unit 130, the display image represented by the display image data is displayed on the display unit 130. なお、表示画像DB113には、表示画像データそのものが記録されていなくてもよく、例えば、表示画像データのID、表示画像データの記録場所(アドレス)等によって構成されるデータであってもよい。 Note that the display image DB 113, may not be displayed image data itself is recorded, for example, ID of the display image data may be data constituted by recording place (address) of the display image data. また、図6の「Z ≦Z<Z 」、「Z ≦Z<Z 」、…、「Z N−1 ≦Z≦Z 」は、図7に示すようにセンシング領域123aの長手方向をZ軸として規定した場合における特定用センシング領域の位置を示す。 Moreover, "Z 0Z <Z 1" in FIG. 6, "Z 1Z <Z 2", ..., "Z N-1 ≦ Z ≦ Z N " is the sensing region 123a as shown in FIG. 7 the longitudinal indicating the position of the specific for the sensing region when defined as Z axis.

画像特定部150bは、第1操作部120aが受け付けているユーザによるスライド操作により、表示画像DB113に記憶された複数の表示画像データから1つの表示画像データを順次特定するものとして機能する。 Image specifying unit 150b by a sliding operation by the user first operating portion 120a is accepted, and functions as sequentially specifying one of the display image data from a plurality of display image data stored in the display image DB 113. 具体的には、画像特定部150bは、ユーザの接触式センサ123に対するスライド操作により、接触式センサ123が出力する操作情報が示す接触位置に基づいて、表示画像DB113を参照して特定用センシング領域を順次特定し、その特定した特定用センシング領域に対応する表示画像データを順次特定する。 Specifically, the image specifying unit 150b by a sliding operation on the contact sensor 123 of the user, based on the contact position indicated by the operation information contact sensor 123 outputs, specifying sensing region by referring to the display image DB113 successively identifying successively specifies the display image data corresponding to the identifying sensing regions that particular.

位置特定部150cは、画像特定部150bが表示画像データを順次特定している間に、画像特定部150bが特定している表示画像データが表す表示画像において、第2操作部120bが受け付けているユーザによるスライド操作に対応する位置を順次特定するものとして機能する。 Position specifying unit 150c, while the image specifying section 150b is sequentially identify the display image data, the display image shown by the image specifying section 150b represents the display image data are identified, the second operating portion 120b is accepted functions as intended to sequentially specify the position corresponding to the slide operation by the user. 具体的には、位置特定部150cは、ユーザの接触式センサ123に対するスライド操作により画像特定部150bが順次特定している表示画像について、表示部130に拡大して表示する領域である拡大領域の位置を順次特定する。 Specifically, the position specifying unit 150c, for display image image selecting unit 150b are sequentially specified by a sliding operation on the contact sensor 123 of the user, the enlarged region is a region for displaying in the enlarged display unit 130 position in order to identify. 例えば、位置特定部150cは、画像特定部150bが順次特定している表示画像データが表す表示画像について、ユーザの接触式センサ121、122に対するスライド操作により、接触式センサ121、122が出力する操作情報が示す接触位置に基づいて、1つの点を拡大領域の中心点として特定する。 For example, the position specifying unit 150c, for display image display image data by the image specifying section 150b is sequentially identified represented by the slide operation on the contact sensor 121 of the user, operation of the contact type sensor 121 outputs information based on the contact position indicated by identifies one point as the center point of the enlarged region.

拡大画像生成部150dは、画像特定部150bが表示画像データを順次特定している間に、画像特定部150bが特定している表示画像データが表す表示画像において、位置特定部150cが特定した位置に対応する領域を拡大した拡大画像を生成して表示部130に表示するものとして機能する。 Enlarged image generating unit 150d, while the image specifying section 150b is sequentially identify the display image data, the display image displaying the image data by the image specifying section 150b is identified represented and identified position specifying unit 150c located and generates an enlarged image obtained by enlarging a corresponding region functions as those displayed on the display unit 130. 具体的には、拡大画像生成部150dは、画像特定部150bが表示画像データを順次特定している間に、画像特定部150bが特定している表示画像データが表す表示画像において、位置特定部150cが特定した拡大領域の中心点を中心として所定の大きさを有する領域(例えば、横320ピクセル、縦240ピクセルの矩形領域)を拡大領域として特定する。 Specifically, the enlarged image generating unit 150d, while the image specifying section 150b is sequentially identify the display image data, the display image displaying the image data by the image specifying section 150b is identified representing the position specifying unit 150c is a region having a predetermined size around the center point of the enlarged region identified (e.g., 320 horizontal pixels, a rectangular area of ​​240 vertical pixels) identifying as enlargement area. そして特定した拡大領域内の画像を表示部130に拡大して表示するための拡大画像データを生成し、生成された拡大画像データを表示部130に出力する。 And to generate an enlarged image data for displaying an enlarged image enlarged in the region identified on the display unit 130, and outputs the generated magnified image data to the display unit 130.

制御部150は、例えば、CPU151と、一次記憶装置152とによって実現される。 Control unit 150 is, for example, a CPU 151, is realized by the primary storage device 152. CPU151は、制御プログラム112に従って表示処理装置100全体を制御し、処理を実行する。 CPU151 controls the entire display processor 100 according to the control program 112 executes the processing. 制御プログラム112は、二次記憶装置111に記録され、一次記憶装置152に読み出される。 Control program 112 is recorded in the secondary storage device 111 are read out to the primary storage device 152. CPU151は一次記憶装置152に読み出された制御プログラム112の指令に基づいて、制御部150の上述した各機能の処理を実行する。 CPU151 based on the instruction of the control program 112 read into the primary storage unit 152, thereby executing the above-described process of each function of the control unit 150. 制御部150の機能の一部は、各種専用回路(例えばデータを圧縮するエンコーダ、データを伸長するデコーダ等)によって実現されてもよい。 Some of the functions of the control unit 150, various dedicated circuits (e.g. an encoder for compressing the data, the data decoder, and the like for expanding) may be implemented by. この場合、各種専用回路がCPU151の機能の一部を担う。 In this case, various dedicated circuit is responsible for some of the functions of the CPU151.

一次記憶装置152は、例えばRAM(Random Access Memory)によって構成され、CPU151のワーキングメモリ等として機能する。 The primary storage device 152 includes, for example, a RAM (Random Access Memory), functions as a working memory of the CPU 151. CPU151が処理中に使用するデータ及び生成されたデータは一次記憶装置152に一次記録される。 CPU151 data that data and generated for use during processing is recorded primary the primary storage device 152. また、CPU151に入出力されるデータは一次記憶装置152に一時記録される。 Also, data input and output to CPU151 is temporarily recorded in the primary storage device 152.

次に、制御部150のCPU151が実行する表示制御処理について、図4及び図5のフローチャートを参照して説明する。 Next, the display control process CPU151 executes the control unit 150 will be described with reference to the flowcharts of FIGS. 表示制御処理は、例えば、ユーザが操作部120を介して表示処理装置100に対して表示制御処理を開始する旨の操作を行ったことを契機として開始する。 Display control process, for example, to start a user's operation to the effect that starts the display control process with respect to the display processing unit 100 via the operation unit 120 as a trigger. より具体的には、例えば、操作部120が出力した表示制御処理の開始指示を示す操作情報を制御部150が受信したことを契機として開始する。 More specifically, for example, the operation information indicating an instruction to start display control processing operation unit 120 outputs the control unit 150 starts in response to a reception.

表示制御処理を開始すると、表示画像特定部150aは、記憶媒体40に記録された複数の画像データの中から、表示画像を表す表示画像データと、その表示画像データの表示順序とを特定する(ステップS11)。 When starting the display control processing, the display image selecting unit 150a selects, from the plurality of image data recorded in the storage medium 40, identifying the display image data representing a display image, and a display order of the display image data ( step S11). なお、記憶媒体40には、動画を構成する各画像データや、所定期間連写撮影された連写画像を表す画像データがそれぞれ1つのグループとして予め記録されているものとし、表示画像特定部150aは、このグループ内に各画像データを用いて前述の処理を行うものとする。 Note that the storage medium 40, and and each of the image data constituting the moving image, and that image data representing a continuous image which has been predetermined period continuous shooting is previously recorded as a group, respectively, the display image selecting unit 150a It shall perform the process described above with reference to the image data in this group. 表示画像特定部150aは、記憶媒体40に記録された画像データ全て、又は、記憶媒体40に記録された所定のグループ(例えば同一フォルダ内に記録された複数の画像データ)内の複数の画像データ等を用いて前述の処理を行ってもよい。 Display image selecting unit 150a, all image data recorded in the storage medium 40, or, more image data in the storage medium 40 to the recorded predetermined group (for example, a plurality of image data recorded in the same folder) it may perform processing described above with reference to such.

具体的には、例えば、表示画像特定部150aは、記憶媒体40に記録された画像データ全てについて、各画像データの撮影時刻を示す撮影時刻データを記録媒体40から取得する。 Specifically, for example, the display image selecting unit 150a for all image data recorded in the storage medium 40, and acquires the photographing time data indicating the capture time of each image data from the recording medium 40. なお、記憶媒体40には、予め、画像データと、その画像データが撮影された時刻を示す撮影時刻データが対応付けて記録されているものとする。 Note that the storage medium 40 in advance, to the image data, and that photographing time data indicating the time at which the image data was captured is recorded in association. そして取得した撮影時刻データが示す撮影時刻が古い順(つまり時系列順)を表示順序に対応させ、その撮影時刻データに対応する画像データを表示画像データとして表示画像DB113に記録する。 The photographing time indicated by the obtained photographing time data is made to correspond to display order of oldest (i.e. time series order), recorded in the display image DB113 image data corresponding to the photographing time data as display image data.

また、表示画像特定部150aは、ステップS11で特定した表示画像データの数だけセンシング領域123aを分割し、複数の特定用センシング領域を規定する(ステップS12)。 The display image specifying unit 150a, only the sensing area 123a the number of display image data specified divided in step S11, defining a plurality of specifying sensing region (step S12).

具体的には、表示画像特定部150aは、表示画像DB113にN個の表示画像データが記録されている場合、図7に示すように、センシング領域123aをその長手方向にN等分して特定用センシング領域A 〜A を規定する。 Specifically, the display image selecting unit 150a, when the N display image data to the display image DB113 is recorded, as shown in FIG. 7, the N equally divided sensing area 123a in the longitudinal direction of the specific defining a use sensing region a 1 to a N. そして特定用センシング領域A 〜A のセンシング領域123a上における位置(「Z ≦Z<Z 」、「Z ≦Z<Z 」、…、「Z N−1 ≦Z≦Z 」)を表示順序nと対応付けて表示画像DB113に記録する(図6参照)。 The position on the sensing region 123a of specifying sensing region A 1 to A N ( "Z 0Z <Z 1", "Z 1Z <Z 2", ..., "Z N-1 ≦ Z ≦ Z N ") in association with the display order n is recorded in the display image DB113 (see FIG. 6).

次に、拡大画像生成部150dは、ユーザが、ステップS11で特定された表示画像データが表す表示画像の表示部130への表示を開始する旨の操作を行ったか否かを判別する(ステップS13)。 Next, the enlarged image generating unit 150d, the user determines whether or not subjected to operation for starting the display of the display unit 130 of the display image represented by display image data specified in step S11 (step S13 ). 具体的には、拡大画像生成部150dは、ユーザが操作部120を操作することにより操作部120が出力した表示画像の表示開始指示を示す操作情報を受信したか否かを判別する。 Specifically, the enlarged image generating unit 150d determines whether it has received the operation information indicating the display start instruction of the display image operating unit 120 has output by the user operating the operation unit 120. ユーザが表示を開始する旨の操作を行っていないと判別した場合(ステップS13;No)、拡大画像生成部150dは表示を開始する旨の操作が行われるまで待ち状態となる。 If it is determined that the user does not perform the operation to start the display (step S13; No), the enlarged image generating unit 150d becomes waiting state until an operation for starting the display is performed.

ユーザが表示を開始する旨の操作を行ったと判別した場合(ステップS13;Yes)、拡大画像生成部150dは、表示画像DB113を参照して、表示順序n=1に対応する表示画像データを表示部130に出力する(ステップS14)。 If it is determined that the user performs an operation indicating to start the display (step S13; Yes), the enlarged image generating unit 150d may display the display image data with reference to the display image DB 113, corresponding to the display order n = 1 and outputs the section 130 (step S14).

次に制御部150(特に画像特定部150b、位置特定部150c、拡大画像生成部150d)は、拡大画像生成処理を実行する(ステップS15)。 Next, the control unit 150 (particularly the image selecting unit 150b, the position specifying unit 150c, the enlarged image generating unit 150d) executes enlarged image generation processing (step S15). 拡大画像生成処理について、図5のフローチャートを参照して説明する。 For the enlarged image generation processing will be described with reference to the flowchart of FIG.

まず、画像特定部150bは、接触式センサ123に対するユーザの接触操作を検出したか否かを判別する(ステップS21)。 First, the image selecting unit 150b determines whether it has detected the contact operation of a user on the contact sensor 123 (step S21). 具体的には、画像特定部150bは、接触式センサ123からセンシング領域123a上でユーザが接触操作した位置を示す操作情報を受信したか否かを判別する。 Specifically, the image selecting unit 150b, a user on the sensing area 123a from the contact sensor 123 to determine whether it has received the operation information indicating the touch operation position. 接触操作を検出していないと判別すると(ステップS21;No)、画像特定部150bは、接触操作を検出するまで待ち状態となる。 When determining that not detected contact operation (step S21; No), the image selecting unit 150b is a wait state until it detects a contact operation.

接触操作を検出したと判別した場合(ステップS21;Yes)、画像特定部150bは、その接触操作により接触式センサ123から受信した操作情報に基づいて、ユーザが接触した位置に対応する表示画像データを特定する(ステップS22)。 If it is determined that detects the contact operation (step S21; Yes), the image specifying unit 150b displays the image data on the basis of the operation information received from the contact sensor 123 by the touch operation corresponds to the user touch position to identify (step S22).

具体的には、画像特定部150bは、接触式センサ123から受信した操作情報が示すセンシング領域123a上における位置に基づいて、表示画像DB113を参照して特定用センシング領域A 〜A の中から、ユーザが接触した領域である接触領域A (1≦m≦N)を特定する。 Specifically, the image selecting unit 150b, based on the position on the sensing region 123a indicated by the operation information received from the contact sensor 123, in particular for sensing area A 1 to A N with reference to the display image DB113 from identifying a contact area which is an area touched by the user a m (1 ≦ m ≦ N ). そして、表示順序n=mに対応する表示画像データを特定する。 Then, to identify the display image data corresponding to the display order n = m. 例えば、接触式センサ123から受信した操作情報が示すセンシング領域123a上における位置ZがZ ≦Z<Z である場合、画像特定部150bは、表示画像DB113を参照して、接触領域A として特定用センシング領域A (すなわちm=3)を特定する。 For example, if the position Z on the sensing region 123a indicated by the operation information received from the contact sensor 123 is Z 2 ≦ Z <Z 3, the image selecting unit 150b refers to the display image DB 113, the contact area A m identifying a particular for sensing area a 3 (i.e. m = 3) as a. そして、表示順序n=3に対応する表示画像データ「aaa3」を特定する(図6参照)。 Then, to identify the "aaa3" display image data corresponding to the display order n = 3 (see FIG. 6).

次に、位置特定部150cは接触式センサ121、122に対するユーザの接触操作を検出したか否かを判別する(ステップS23)。 Then, the position specifying unit 150c discriminates whether or not it has detected a contact operation by the user on the contact sensor 121 (step S23). 具体的には、位置特定部150cは、接触式センサ121、122からセンシング領域121a、122a上でユーザが接触操作した位置を示す操作情報を受信したか否かを判別する。 Specifically, the position specifying unit 150c includes a sensing area 121a from the contact sensor 121, a user on 122a determines whether it has received the operation information indicating the touch operation position. 接触操作を検出していないと判別すると(ステップS23;No)、位置特定部150cは、ステップS21に処理を戻す。 When determining that not detected contact operation (step S23; No), the position specifying unit 150c returns the process to step S21.

位置特定部150cは、接触式センサ121、122に対するユーザの接触操作を検出したと判別した場合(ステップS23;Yes)、その接触操作により接触式センサ121から受信した操作情報と、接触式センサ122から受信した操作情報とに基づいて、拡大領域Bの中心点P を特定する(ステップS24)。 Position specifying unit 150c, when it is determined that detects the contact operation by the user on the contact sensor 121 (step S23; Yes), the operation information received from the contact sensor 121 by the contact operation, the contact sensor 122 on the basis of the operation information received from, it identifies the center point P 0 of the enlarged region B (step S24).

具体的に拡大領域Bの中心点P を特定する方法の一例について、図8(a)を用いて説明する。 An example of a specific method of identifying the center point P 0 of the enlarged region B, and described with reference to FIG. 8 (a). 図8(a)に表示順序nに対応する表示画像データが表す表示画像I 0nを示す。 Figure 8 shows a display image I 0n representing the display image data corresponding to the display order n in (a). なお、図8(a)に示す表示画像I 0nは、拡大領域Bの中心点P を特定する方法を説明するためのものであり、実際に表示部130に表示される画像は、図8(a)の拡大領域Bの拡大画像I 1n (図8(b)参照)である。 The display image I 0n shown in FIG. 8 (a) is for explaining a method of identifying the center point P 0 of the enlarged region B, the image actually displayed on the display unit 130, FIG. 8 (a) an enlarged image I 1n the enlarged area B of a (FIG. 8 (b) refer). 図8(a)に示すように、位置特定部150cは、接触式センサ121からの操作情報が示す位置X に対応する、表示画像I 0n上におけるx軸方向の座標x と、接触式センサ122からの操作情報が示す位置Y に対応する、表示画像I 0n上におけるy軸方向の座標y とから規定される1つの座標点を拡大領域Bの中心点P として特定する。 As shown in FIG. 8 (a), the position specifying unit 150c, the operation information from the contact sensors 121 corresponding to the position X 0 indicated, the coordinate x 0 of the x-axis direction on the display image I 0n, contact corresponding to the position Y 0 indicated by the operation information from the sensor 122 is specified as the center point P 0 of the one larger coordinate point region B defined by the y-axis direction of the coordinate y 0 Metropolitan on the display image I 0n.

次に拡大画像生成部150dは、ステップS24で特定された中心点P により特定される拡大領域Bの拡大画像データを生成し、生成された拡大画像データを表示部130に出力する(ステップS25)。 Then enlarged image generating unit 150d generates an enlarged image data of the enlarged area B which is specified by the center point P 0, which is specified in step S24, and outputs the generated magnified image data on the display unit 130 (step S25 ).

具体的には、拡大画像生成部150dは、ステップS24で特定された中心点P を中心として所定の大きさを有する領域(例えば、横320ピクセル、縦240ピクセルの矩形領域)を拡大領域Bとして特定する。 Specifically, the enlarged image generating unit 150d, an area having a predetermined size around the center point P 0, which is specified in step S24 (e.g., 320 horizontal pixels, a rectangular area of 240 vertical pixels) larger region B to identify as. なお、拡大領域Bの大きさは、例えば予めユーザにより設定され、記憶部110に記録されているものとする。 The size of the enlarged region B is set, for example by the user in advance, and those recorded in the storage unit 110. そして、拡大画像生成部150dは、特定された拡大領域Bについて、表示部130に拡大表示するための拡大画像データを生成し、表示部130に出力する。 The enlarged image generating unit 150d, for enlarging the area B identified, to generate an enlarged image data for enlarged display on the display unit 130, and outputs to the display unit 130. 例えば、図8(a)に示す表示画像I 0n上の拡大領域Bについて生成された拡大画像データが表示部130に出力された場合、図8(b)に示す拡大画像I 1nが表示部130に表示される。 For example, if the expanded image data generated for the enlarged area B of the display image I 0n shown in FIG. 8 (a) is outputted to the display unit 130, the enlarged image I 1n the display unit shown in FIG. 8 (b) 130 It is displayed in. そして、拡大画像生成部150dは、ステップ21に処理を戻す。 The enlarged image generating unit 150d, the process returns to step 21.

そして、制御部(画像特定部150b、位置特定部150c、拡大画像生成部150d)は、ステップS21乃至25の処理を繰り返し行う。 Then, the control unit (image identifying unit 150b, the position specifying unit 150c, the enlarged image generating unit 150d) repeatedly executes the process of steps S21 to 25. なお、制御部150は、例えばユーザが操作部120を介して表示画像の表示を終了する旨の操作を行った場合、すなわち操作部120から表示画像の表示終了指示を示す操作情報を受信した場合、表示制御処理を終了する。 The control unit 150, for example, when a user when performing an operation for ending the display of the display image via the operation unit 120, i.e., that has received the operation information indicating the display end instruction of the display image from the operating unit 120 , to end the display control process.

次に、以上のように構成される表示処理装置100について、ユーザが予め選択した複数の画像を切り換えながら拡大表示する場合の具体的な動作を図9、10(a)〜(f)を用いて説明する。 Next, the formed display processing unit 100 as described above, referring to FIGS. 9 and 10 the specific operation when the user to enlarge while switching a plurality of images selected in advance (a) ~ (f) It described Te. 図9及び図10(a)〜(c)は、ユーザの操作による拡大領域の移動と、拡大される元の画像の切り換えを説明するための図である。 9 and FIG. 10 (a) ~ (c) are diagrams for explaining the movement of the enlarged region by operation of the user, the switching of the original image to be enlarged. また、図10(d)〜(f)は、図10(a)〜(c)において説明されるユーザの操作により表示部130に表示される拡大画像を示す図である。 Further, FIG. 10 (d) ~ (f) are diagrams showing an enlarged image displayed on the display unit 130 by a user operation to be described in FIG. 10 (a) ~ (c). ここで、ユーザの操作により、動画を構成する複数の画像データが表示画像データとして、また、その表示画像データの撮影時刻の古い順が表示順序として、表示画像DB113に予め記録されているものとする。 Here, the operation of the user, as a plurality of image data the display image data constituting the moving image, and as the old order of display order of shooting time of the display image data, as recorded in advance in the display image DB113 to.

図9に示すように、表示処理装置100は、N個の表示画像データが表す表示画像I 01 、I 02 、…、I 0Nを、ユーザによるセンシング領域123aの接触操作により順次切り換えて拡大する元の画像として特定する。 As shown in FIG. 9, the display processing unit 100, display image I 01 representing the N display image data, I 02, ..., from which to expand the I 0N, sequentially switched by the contact operation of the sensing region 123a by the user It is identified as the image. また、ユーザによるセンシング領域123aの接触操作と同時に行われる、センシング領域121a、122aの接触操作により、センシング領域123aの接触操作で特定された画像の拡大領域を特定し、その拡大画像を表示する。 Further, the contact operation of the sensing region 123a by the user to be performed at the same time, the sensing area 121a, the 122a of the contact operation, to identify the enlarged region of the specific image in the contact operation of the sensing area 123a, and displays the enlarged image. 例えば、ユーザが、センシング領域121aについて位置X から位置X へ、センシング領域122aについて位置Y から位置Y へ、センシング領域123aについて位置Z から位置Z へ、センシング領域121a、122a、123a上におけるスライド操作を同時に行った場合について説明する。 For example, the user, to the position X n from the position X 1 for sensing area 121a, the position Y 1 to position Y n for sensing area 122a, to the position Z n from the position Z 1 for sensing area 123a, the sensing area 121a, 122a, description will be given of a case where the slide operation was performed simultaneously on 123a. このとき、表示処理装置100は、まずセンシング領域121a、122aの接触操作により特定された表示画像I 01における拡大領域B の拡大画像を表示する。 At this time, the display processing unit 100 first sensing area 121a, and displays the enlarged image of the enlarged area B 1 in the display image I 01 identified by 122a of the contact operation. そして、センシング領域123aの接触操作により特定された表示画像について拡大領域を移動させた拡大画像を表示しながら、最終的に表示画像I 0nにおける拡大領域B の拡大画像を表示する。 Then, while displaying the enlarged image by moving the magnified area for display image specified by the touch operation of the sensing area 123a, and displays the enlarged image of the enlarged area B n in the final displayed image I 0n.

次に、図10(a)〜(f)を用いて、さらに具体的な表示処理装置100の動作を説明する。 Next, with reference to FIG. 10 (a) ~ (f), further illustrating the operation of specific display processing unit 100.
ユーザが、例えば図10(a)に示すように左手人差し指、左手親指、右手人差し指を、それぞれセンシング領域121a、122a、123a上のX 、Y 、Z の位置に接触させているとする。 User, for example, left index, as shown in FIG. 10 (a), left thumb, the right index finger, respectively sensing area 121a, 122a, on 123a X a, Y a, and held in contact with the position of the Z a . このとき、表示処理装置100は、センシング領域123a上の位置Z に対応する表示画像データを、表示画像DB113を参照して特定する。 At this time, the display processing unit 100, the display image data corresponding to the position Z a in the sensing region 123a, is specified by referring to the display image DB 113. そして、表示処理装置100は、センシング領域121a上の位置X と、センシング領域122a上の位置Y により特定される点P 0aを中心とする拡大領域B を特定する。 Then, the display processing unit 100 specifies the position X a on the sensing area 121a, the enlarged region B a around the P 0a point specified by the position Y a on the sensing area 122a. そして、表示処理装置100は、特定した表示画像データが表す表示画像I 0aにおける拡大領域B の拡大画像データを生成し、表示部130に出力する。 Then, the display processing unit 100 generates an enlarged image data of the enlarged area B a in the display image I 0a representing specific display image data, and outputs to the display unit 130. 従って、図10(a)に示す操作により、図10(d)に示す拡大画像I 1aが表示部130に表示される。 Therefore, by the operation shown in FIG. 10 (a), enlarged image I 1a shown in FIG. 10 (d) is displayed on the display unit 130.

次に、ユーザが、図10(d)の拡大画像I 1aの元の画像(すなわち表示画像I 0a )が撮影された時刻よりも新しい表示画像について、異なる領域を拡大させて表示部130に表示させる場合の操作について説明する。 Next, the user, the new display image than the time in which the original image (i.e. the display image I 0a) was taken of the enlarged image I 1a in FIG. 10 (d), the display on the display unit 130 by expanding the different areas operation will be described in case of. この場合、ユーザは、左手人差し指、左手親指、右手人差し指を同時に、図10(b)に示すように、位置X 、Y 、Z から位置X 、Y 、Z へ、スライド操作を行う。 In this case, the user, left index, left thumb, right index simultaneously, as shown in FIG. 10 (b), the position X a, Y a, position from the Z a X b, Y b, the Z b, a slide operation I do. この場合も、前述の図10(a)において示した動作と同様に、表示処理装置100は、表示画像データ及び拡大領域B を特定する。 In this case, similar to the operation shown in FIG. 10 of the foregoing (a), the display processing unit 100 specifies the display image data and the enlarged region B b. なお、ユーザは、センシング領域123aを右方向(Z軸の正方向)にスライド操作することにより表示画像データを特定している。 Note that the user has identified the display image data by sliding operation of the sensing area 123a rightward (positive direction of Z-axis). これは、前述したように、複数の表示画像データが、その撮影時刻の古い順を表示順序として表示画像DB113に記録されているためである。 This is because, as described above, a plurality of display image data, because that is recorded in the display image DB113 the order of older its shooting time as the display order. 従って、センシング領域123a上の接触位置に対応する表示順序が高くなる方向、すなわちZ軸の正方向にスライド操作することで、撮影時刻が新しい表示画像データを特定することができる。 Therefore, the direction in which the display order corresponding to the contact position on the sensing region 123a is high, namely by slide operation in the positive direction of the Z axis, it is possible to shooting time to identify a new display image data. そして、表示処理装置100は、特定された表示画像データが表す表示画像I 0bにおける、特定された拡大領域B の拡大画像データを生成し、表示部130に出力する。 Then, the display processing unit 100, in the display image I 0b representing a specific display image data to generate expanded image data of the specified enlargement area B b, and outputs to the display unit 130. 従って、図10(b)に示す操作により、図10(e)に示す拡大画像I 1bが表示部130に表示される。 Therefore, by the operation shown in FIG. 10 (b), an enlarged image I 1b shown in FIG. 10 (e) is displayed on the display unit 130.

次に、ユーザが、図10(e)の拡大画像I 1bの元の画像(すなわち表示画像I 0b )が撮影された時刻よりも古い表示画像について、異なる領域を拡大させて表示部130に表示させる場合の操作について説明する。 Next, the user, the old display image than the time in which the original image (i.e. the display image I 0b) was taken of the enlarged image I 1b in FIG. 10 (e), the display on the display unit 130 by expanding the different areas operation will be described in case of. この場合、ユーザは、左手人差し指、左手親指、右手人差し指を同時に、図10(c)に示すように、位置X 、Y 、Z から位置X 、Y 、Z へ、移動させてスライド操作を行う。 In this case, the user, left index, left thumb, simultaneously right index finger, as shown in FIG. 10 (c), the position X b, Y b, the position from Z b X c, Y c, to Z c, moves performing a slide operation Te. この場合も、前述の図10(b)において示した動作と同様に、表示処理装置100は、表示画像データ及び拡大領域B を特定する。 In this case, similar to the operation shown in FIG. 10 of the aforementioned (b), the display processing unit 100 specifies the display image data and the enlarged region B b. なお、ユーザは、センシング領域123aを左方向(Z軸の負方向)にスライド操作することにより、撮影時刻が古い表示画像データを特定している。 The user, by sliding operation of the sensing area 123a in the left direction (the negative direction of the Z axis), shooting time is specified old display image data. そして、表示処理装置100は、特定された表示画像データが表す表示画像I 0cにおける、特定された拡大領域B の拡大画像データを生成し、表示部130に出力する。 Then, the display processing unit 100, in the display image I 0c representing the identified display image data to generate expanded image data of the specified enlargement area B c, and outputs to the display unit 130. 従って、図10(c)に示す操作により、図10(f)に示す拡大画像I 1cが表示部130に表示される。 Therefore, by the operation shown in FIG. 10 (c), an enlarged image I 1c that shown in FIG. 10 (f) is displayed on the display unit 130.

以上のように、実施形態1に係る表示処理装置100において、ユーザは複数の画像を切り換えながら、同時に切り換えられた画像上の任意の領域における拡大画像を表示部130に表示させることができる。 As described above, in the display processing apparatus 100 according to the first embodiment, the user while switching a plurality of images, can be displayed enlarged image on the display unit 130 in an arbitrary area on the switched image simultaneously. また、表示部130に表示される拡大画像の拡大領域を移動させながら、同時に複数の画像を切り換えることができる。 Further, while moving the enlarged area of ​​the enlarged image displayed on the display unit 130, it is possible to simultaneously switch the plurality of images. 例えば、上述の実施形態1において、ユーザは接触式センサ121、122を接触操作することにより拡大領域を指定すると同時に、接触式センサ123を接触操作することで、任意の撮影時刻における拡大しようとする表示画像を切り換えながら、指定した拡大領域について拡大画像を表示部130に表示させることができる。 For example, in the first embodiment described above, the user at the same time by specifying the enlarged region by manipulation of contacting the contact sensor 121 and 122, by the manipulation of contacting the contact sensor 123, attempts to expand at any photographing time while switching the display image can be displayed enlarged image on the display unit 130 for the specified enlargement area. また、ユーザは接触式センサ123を接触操作することにより拡大しようとする表示画像を指定すると同時に、接触式センサ121、122を接触操作することで、指定した拡大しようとする表示画像において拡大領域を移動させながら拡大画像を表示部130に表示させることができる。 At the same time when the user specifies a display image to be enlarged by manipulation of contacting the contact sensor 123, by the manipulation of contacting the contact sensor 121, the enlarged region in the display image to be specified enlargement enlarged image while moved can be displayed on the display unit 130. さらに、ユーザは、接触式センサ121、122、123を同時にスライド操作することにより、表示部130に表示される拡大画像の拡大領域、及び拡大される元の表示画像を同時に連続的に変化させることができる。 Furthermore, the user can simultaneously slide operation the contact sensor 121, 122, 123, enlarged region of the enlarged image displayed on the display unit 130, and enlarged by changing the original display image simultaneously continuously can. このように、表示処理装置100は、ユーザの操作に応じて変化に富んだ画像を表示することができ、ユーザに新しい印象を与えることができる。 Thus, the display processing apparatus 100 can display an image variegated in accordance with the operation of the user can give a new impression to the user.

(実施形態2) (Embodiment 2)
次に、本発明の実施形態2に係る表示処理装置100について説明する。 Next, a description will be given of a display processing apparatus 100 according to Embodiment 2 of the present invention. 実施形態2に係る表示処理装置100は、ユーザの操作により特定された拡大領域がユーザによる操作終了後に等速度で移動する点において、実施形態1に係る表示処理装置100と異なる。 Display processing apparatus 100 according to the second embodiment, in that larger area specified by a user operation to move at a constant speed after the operation ends due to the user, different from the display processing apparatus 100 according to the first embodiment. 以下に、実施形態2に係る表示処理装置100について、実施形態1に係る表示処理装置と異なる点について詳細に説明する。 Hereinafter, the display processing apparatus 100 according to the second embodiment will be described in detail differences from the display processing apparatus according to the first embodiment. なお、実施形態1と同様の構成要素については、同様の符号を用い、その詳細な説明は省略する。 Note that the same components as in Embodiment 1, using the same reference numerals, and detailed description thereof will be omitted.

まず、実施形態2に係る表示処理装置100の構成を図11及び図12を参照して説明する。 First, a configuration of a display processing apparatus 100 according to the second embodiment will be described with reference to FIGS. 表示処理装置100は、図11に示すように、記憶部110と、操作部120と、表示部130と、読出・書込部140と、制御部150と、を備える。 The display processing apparatus 100 includes, as shown in FIG. 11, a storage unit 110, an operation unit 120, a display unit 130, a reading and writing portion 140, a control unit 150, a.

記憶部110は、実施形態1に係る表示処理装置と同様に、二次記憶装置111によって実現されるが、表示画像DB113が二次記憶装置111に記録されていない点で異なる。 Storage unit 110, as in the display processing apparatus according to the first embodiment is realized by a secondary storage device 111, except that the display image DB113 is not recorded in the secondary storage device 111. また、操作部120は、実施形態1に係る表示処理装置100と同様に、ユーザによる後述する拡大領域を特定するための操作を受け付ける第2操作部120bを含むが、第1操作部120aを含まない点で異なる。 The operation unit 120, like the display processing apparatus 100 according to Embodiment 1, including a second operation unit 120b for receiving an operation for specifying the enlarged region to be described later by a user, include a first operation unit 120a no different in that. また、第2操作部120bは、実施形態1に係る表示処理装置100と同様に、接触式センサ121、122によって実現される。 The second operation unit 120b, similarly to the display processing apparatus 100 according to the first embodiment, is realized by the contact sensor 121, 122.

制御部150は、実施形態1に係る表示処理装置100と同様に、位置特定部150e、拡大画像生成部150dとして機能するが、表示画像特定部150a、画像特定部150bとしては機能しない点で異なる。 Control unit 150, like the display processing apparatus 100 according to the first embodiment, the position specifying unit 150e, but functions as an enlarged image generating unit 150d, a display image selecting unit 150a, as the image selecting unit 150b differs in that it does not function . さらに実施形態2に係る位置特定部150eは、実施形態1に係る位置特定部150bと同様に、表示部130に拡大して表示する領域である拡大領域の位置を特定する。 Furthermore the position specifying unit 150e according to the second embodiment, like the position specifying unit 150b according to the first embodiment, to identify the position of the enlarged region is a region for displaying in the enlarged display unit 130. しかし、位置特定部150eは、ユーザの操作により特定された拡大領域の位置を、ユーザによる操作終了後に等速度で移動させる点で、位置特定部150cと異なる。 However, the position specifying unit 150e is, the position of the enlarged area specified by a user operation in terms of moving at a constant speed after the operation ends due to the user, different from the position specifying unit 150c. 以下に、位置特定部150eについて詳細に説明する。 The following describes in detail the position specifying unit 150e.

位置特定部150eは、表示部130に表示されている画像について、第2操作部120bが出力する操作情報に基づいて、1つの点を拡大領域の中心点として特定する。 Position specifying unit 150e is the image displayed on the display unit 130, based on the operation information second operating portion 120b is output to identify the one point as the center point of the enlarged region. そして、拡大画像生成部150dは、位置特定部150eが特定した中心点を中心として所定の大きさを有する領域(例えば、横320ピクセル、縦240ピクセルの矩形領域)を拡大領域として特定する。 The enlarged image generating unit 150d, an area having a predetermined size around a center point where the position specifying unit 150e identified (e.g., 320 horizontal pixels, a rectangular area of ​​240 vertical pixels) identifying as enlargement area. そして拡大画像生成部150dは、特定した拡大領域における拡大画像データを生成し、表示部130に出力する。 The enlarged image generating unit 150d generates an enlarged image data in the specified expanded area, and outputs to the display unit 130.

また、位置特定部150eは、第2操作部120bが出力する操作情報に基づいて、ユーザによる第2操作部120bの操作が終了したか否かを判別する。 The position specifying unit 150e, on the basis of the operation information by the second operating portion 120b is outputted, it is determined whether or not the operation of the second operation unit 120b by the user is completed. そして、操作が終了したと判別した場合に、操作終了直前の操作速度で、拡大領域を等速度運動させた場合の拡大領域の中心点を特定する。 When it is determined that the operation has been completed, the operation immediately before the end of the operation speed, identifying a center point of the enlarged region when is constant velocity motion of the enlarged region.

次に、制御部150のCPU151が実行する拡大画像生成処理について、図13のフローチャートを参照して説明する。 Next, the enlarged image generation processing CPU151 executes the control unit 150 will be described with reference to the flowchart of FIG. 拡大画像生成処理は、例えば、ユーザが操作部120を介して表示処理装置100に対して、表示部130に表示されている画像の拡大画像生成処理を開始する旨の操作を行ったことを契機として開始する。 Enlarged image generation process, for example, triggered by the user to the display processing unit 100 via the operation unit 120, performs an operation indicating to start the enlarged image generation processing of the image displayed on the display unit 130 to start as. 具体的には、例えば、操作部120が出力した、表示部130に表示されている画像拡大画像生成処理の開始指示を示す操作情報を制御部150が受信したことを契機として開始する。 Specifically, for example, the operation unit 120 outputs, to start triggered by the control unit 150 operation information indicating an instruction to start image enlarged image generation processing, which is displayed on the display unit 130 has received.

まず、拡大画像生成部150dは、表示部130に表示されている画像について、初期拡大画像データを生成し、生成された初期拡大画像データを表示部130に出力する(ステップS31)。 First, the enlarged image generating unit 150d, for the image displayed on the display unit 130, generates the initial enlarged image data, and outputs the generated initial enlarged image data to the display unit 130 (step S31). 具体的には、図8(a)に示すように、拡大画像生成部150dは、表示部130に表示されている画像について、その画像の所定の点(例えば中心点)を中心点P として所定の大きさ(例えば、横320ピクセル、縦240ピクセルの矩形領域)の領域を拡大領域Bとする拡大画像を表す拡大画像データを生成する。 Specifically, as shown in FIG. 8 (a), enlarged image generating unit 150d, for the image displayed on the display unit 130, a predetermined point of the image (e.g., center point) as the center point P 0 predetermined size (e.g., 320 horizontal pixels, a rectangular area of ​​240 vertical pixels) to generate an enlarged image data representing an enlarged image of a region of enlarged area B of the. そして、生成された拡大画像データを初期拡大画像データとして表示部130に出力する。 Then, it outputs to the display unit 130 the generated expanded image data as initial enlarged image data. また、拡大画像生成部150dは、元の画像(拡大前の画像)における拡大領域Bの中心点P のx座標、y座標を一次記憶装置152に記録するとともに、x軸方向移動速度、y軸方向移動速度として初期値0を記録する。 Moreover, the enlarged image generating unit 150d includes, x coordinate of the center point P 0 of the enlarged area B in the original image (enlargement previous image), and records the y-coordinate in the primary storage device 152, x-axis direction movement speed, y the initial value 0 is recorded as the axial movement speed.

次に、位置特定部150eは、接触式センサ121に対するユーザの接触操作を検出したか否かを判別する(ステップS32)。 Then, the position specifying unit 150e determines whether it has detected the contact operation of a user on the contact sensor 121 (step S32). 具体的には、位置特定部150eは、接触式センサ121からセンシング領域121a上でユーザが接触操作した位置を示す操作情報を受信したか否かを判別する。 Specifically, the position specifying unit 150e, the user on the sensing area 121a from the contact sensor 121 to determine whether it has received the operation information indicating the touch operation position.

接触式センサ121に対するユーザの接触操作を検出したと判別した場合(ステップS32;Yes)、位置特定部150eは、その接触操作により接触式センサ121から受信した操作情報が示す接触位置に基づいて、表示部130に表示されている拡大画像の元の画像(拡大前の画像)における拡大領域Bの中心点P のx座標を特定する(ステップS33)。 If it is determined that detects the contact operation by the user on the contact sensor 121 (Step S32; Yes), the position specifying unit 150e, based on the contact position indicated by the operation information received from the contact sensor 121 by the touch operation, specifying the x coordinate of the center point P 0 of the enlarged area B in the original image of the enlarged image displayed on the display unit 130 (before magnification of the image) (step S33). そして、位置特定部150eは、特定したx座標を一次記憶装置152に記録する。 The position specifying unit 150e records the specified x-coordinate in the primary storage device 152. なお、接触式センサ121から受信した操作情報に基づいて、拡大領域Bの中心点のx座標を求める具体的な方法は、実施形態1と同様である。 Incidentally, on the basis of the operation information received from the contact sensor 121, a specific method for determining the x-coordinate of the center point of the enlarged region B is the same as the first embodiment.

接触式センサ121に対するユーザの接触操作を検出していないと判別した場合(ステップS32;No)、位置特定部150eは、直近の過去所定時間内に接触式センサ121に対するユーザの接触操作を検出したか否かを判別する(ステップS34)。 If it is judged that no detect a contact operation of the user on the contact sensor 121 (Step S32; No), the position specifying unit 150e has detected the contact operation of a user on the contact sensor 121 in the most recent past predetermined time determines whether or not a (step S34). 具体的には、例えば、直近の過去所定時間内(例えば、100msec内)に接触式センサ121から操作情報を受信したか否かを判別する。 Specifically, for example, in the most recent past predetermined time (for example, 100 msec) to determine whether it has received the operation information from the contact sensor 121. 直近の過去所定時間内に接触式センサ121に対するユーザの接触操作を検出していないと判別した場合(ステップS34;No)、位置特定部150eは、ステップS36に処理を進める。 If it is judged that no detect a contact operation of the user on the contact sensor 121 in the most recent past predetermined time (step S34; No), the position specifying unit 150e, the process proceeds to step S36.

直近の過去所定時間内に接触式センサ121に対するユーザの接触操作を検出したと判別した場合(ステップS34;Yes)、位置特定部150eは、直近の過去所定時間内に受信した操作情報に基づいて、表示部130に表示されている拡大画像の元の画像における拡大領域Bの中心点P のx軸方向の移動速度を算出する(ステップS35)。 If it is determined that detects the contact operation by the user on the contact sensor 121 in the most recent past predetermined time (step S34; Yes), the position specifying unit 150e, based on the operation information received in the most recent past predetermined time , calculates the moving speed of the x-axis direction of the center point P 0 of the enlarged area B in the original image of the enlarged image displayed on the display unit 130 (step S35). 具体的には、直近の過去所定時間内(例えば、100msec内)に受信した複数の操作情報が示すセンシング領域121aにおける位置について、対応する表示部130に表示されている拡大画像の元の画像上における位置、すなわち中心点P のx座標を特定し、直近の過去所定時間内における移動距離を算出する。 Specifically, in the most recent past predetermined time (for example, 100 msec) for the position in the sensing region 121a indicated by the plurality of operation information received, on the original image of the enlarged image displayed on the corresponding display unit 130 position in, that identifies the x-coordinate of the center point P 0, and calculates the moving distance in the most recent past predetermined time. そして、算出された移動距離と、直近の過去所定時間とから、ユーザによる接触操作終了直前の中心点のx軸方向移動速度を算出する。 Then, a moving distance calculated from the most recent past predetermined time, calculates the x-axis direction movement speed of the center point of the immediately preceding contact operation completion by the user. また、位置特定部150eは、算出したx軸方向移動速度を一次記憶装置152に記録する。 The position specifying unit 150e records the calculated x-axis direction movement speed in the primary storage device 152.

次に、位置特定部150eは、一次記憶装置152に記録されたx軸方向移動速度から、中心点P の移動後のx座標を特定する(ステップS36)。 Then, the position specifying unit 150e from the primary to the storage device 152 records the x-axis direction moving speed, identifies the x-coordinate after movement of the center point P 0 (step S36). 具体的には、位置特定部150eは、一次記憶装置152に記録されたx軸方向移動速度と中心点P のx座標とに基づいて、中心点P が一次記憶装置152に記録されたx軸方向移動速度で等速度運動した場合のx座標を算出する。 Specifically, the position specifying unit 150e, based on the x-coordinate of the primary storage device 152 x-axis direction movement speed and the center point P 0 recorded in the center point P 0 is recorded in the primary storage device 152 to calculate the x-coordinate in the case of uniform motion in x-axis direction movement speed. そして、位置特定部150eは、算出したx座標を一次記憶装置152に記録する。 The position specifying unit 150e records the calculated x-coordinate in the primary storage device 152.

位置特定部150eは、接触式センサ122に対するユーザの接触操作を検出したか否かを判別する(ステップS37)。 Position specifying unit 150e determines whether it has detected the contact operation of a user on the contact sensor 122 (step S37). 具体的には、位置特定部150eは、接触式センサ122からセンシング領域122a上でユーザが接触操作した位置を示す操作情報を受信したか否かを判別する。 Specifically, the position specifying unit 150e, the user on the sensing area 122a from the contact sensor 122 to determine whether it has received the operation information indicating the touch operation position.

接触式センサ122に対するユーザの接触操作を検出したと判別した場合(ステップS37;Yes)、位置特定部150eは、その接触操作により接触式センサ122から受信した操作情報が示す接触位置に基づいて、表示部130に表示されている拡大画像の元の画像における拡大領域Bの中心点P のy座標を特定する(ステップS38)。 If it is determined that detects the contact operation by the user on the contact sensor 122 (Step S37; Yes), the position specifying unit 150e, based on the contact position indicated by the operation information received from the contact sensor 122 by the touch operation, identifying the y-coordinate of the center point P 0 of the enlarged area B in the original image of the enlarged image displayed on the display unit 130 (step S38). そして、位置特定部150eは、特定したy座標を一次記憶装置152に記録する。 The position specifying unit 150e records the specified y-coordinate in the primary storage device 152. なお、接触式センサ122から受信した操作情報に基づいて、拡大領域Bの中心点のy座標を求める具体的な方法は、実施形態1と同様である。 Incidentally, on the basis of the operation information received from the contact sensor 122, a specific method for determining the y coordinate of the center point of the enlarged region B is the same as the first embodiment.

接触式センサ122に対するユーザの接触操作を検出していないと判別した場合(ステップS37;No)、位置特定部150eは、直近の過去所定時間内に接触式センサ122に対するユーザの接触操作を検出したか否かを判別する(ステップS39)。 If it is judged that no detect a contact operation of the user on the contact sensor 122 (Step S37; No), the position specifying unit 150e has detected the contact operation of a user on the contact sensor 122 in the most recent past predetermined time determines whether or not a (step S39). 具体的には、例えば、直近の過去所定時間内(例えば、100msec内)に接触式センサ122から操作情報を受信したか否かを判別する。 Specifically, for example, in the most recent past predetermined time (for example, 100 msec) to determine whether it has received the operation information from the contact sensor 122. 直近の過去所定時間内に接触式センサ122に対するユーザの接触操作を検出していないと判別した場合(ステップS39;No)、位置特定部150eは、ステップS41に処理を進める。 If it is judged that no detect a contact operation of the user on the contact sensor 122 in the most recent past predetermined time (step S39; No), the position specifying unit 150e, the process proceeds to step S41.

直近の過去所定時間内に接触式センサ122に対するユーザの接触操作を検出したと判別した場合(ステップS39;Yes)、位置特定部150eは、直近の過去所定時間内に受信した操作情報に基づいて、表示部130に表示されている拡大画像の元の画像における拡大領域Bの中心点P のy軸方向の移動速度を算出する(ステップS40)。 If it is determined that detects the contact operation by the user on the contact sensor 122 in the most recent past predetermined time (step S39; Yes), the position specifying unit 150e, based on the operation information received in the most recent past predetermined time , it calculates the moving speed of the y-axis direction of the center point P 0 of the enlarged area B in the original image of the enlarged image displayed on the display unit 130 (step S40). 具体的には、直近の過去所定時間内(例えば、100msec内)に受信した複数の操作情報が示すセンシング領域122aにおける位置について、対応する表示部130に表示されている拡大画像の元の画像上における位置、すなわち中心点P のy座標を特定し、直近の過去所定時間内における移動距離を算出する。 Specifically, in the most recent past predetermined time (for example, 100 msec) for the position in the sensing region 122a indicated by the plurality of operation information received, on the original image of the enlarged image displayed on the corresponding display unit 130 position in, that identifies the y-coordinate of the center point P 0, and calculates the moving distance in the most recent past predetermined time. そして、算出された移動距離と、直近の過去所定時間とから、ユーザによる接触操作終了直前の中心点のy軸方向移動速度を算出する。 Then, a moving distance calculated from the most recent past predetermined time, calculates the y-axis direction movement speed of the center point of the contact operation just before the end user. また、位置特定部150eは、算出したy軸方向移動速度を一次記憶装置152に記録する。 The position specifying unit 150e records the calculated y-axis direction movement speed in the primary storage device 152.

次に、位置特定部150eは、一次記憶装置152に記録されたy軸方向移動速度から、中心点P の移動後のy座標を特定する(ステップS41)。 Then, the position specifying unit 150e from the primary to the storage device 152 records the y-axis direction moving speed, identifies the y-coordinate after movement of the center point P 0 (step S41). 具体的には、位置特定部150eは、一次記憶装置152に記録されたy軸方向移動速度と中心点P のy座標とに基づいて、中心点P が一次記憶装置152に記録されたy軸方向移動速度で等速度運動した場合のy座標を算出する。 Specifically, the position specifying unit 150e, based on the y-coordinate of the primary storage device 152 y-axis direction movement speed and the center point P 0 recorded in the center point P 0 is recorded in the primary storage device 152 calculating a y coordinate in the case of uniform motion in the y-axis direction movement speed. そして、位置特定部150eは、算出したy座標を一次記憶装置152に記録する。 The position specifying unit 150e records the calculated y-coordinate in the primary storage device 152.

次に、拡大画像生成部150dは、一次記憶装置152に記録された拡大領域Bの中心点P のx座標、y座標に基づいて、拡大画像データを生成し、生成された拡大画像データを表示部130に出力する(ステップS42)。 Next, the enlarged image generating unit 150d includes, x coordinate of the center point P 0 of the enlarged region B which is recorded in the primary storage device 152, based on the y-coordinate, and generates an enlarged image data, the generated magnified image data and outputs to the display unit 130 (step S42). 具体的には、拡大画像生成部150dは、一次記憶装置152に記録された拡大領域Bの中心点P のx座標、y座標を中心とする所定の大きさを有する領域(例えば、横320ピクセル、縦240ピクセルの矩形領域)を新たな拡大領域Bとして特定する。 Specifically, the enlarged image generating unit 150d, an area (for example, having a predetermined size to x-coordinate of the center point P 0 of the enlarged region B which is recorded in the primary storage unit 152, a y coordinate and center, 320w pixels, identifying the rectangular region) of 240 pixels as a new expansion region B. そして拡大画像生成部150dは、特定した拡大領域Bにおける拡大画像データを生成し、表示部130に出力する。 The enlarged image generating unit 150d generates an enlarged image data in the specified enlargement area B, and outputs to the display unit 130. そして、拡大画像生成部150dは、ステップ32に処理を戻す。 The enlarged image generating unit 150d, the process returns to step 32.

そして、制御部150(位置特定部150e、拡大画像生成部150d)は、ステップS32乃至42の処理を繰り返し行う。 Then, the control unit 150 (position specifying portion 150e, the enlarged image generating unit 150d) repeatedly executes the process of steps S32 to 42. なお、制御部150は、例えばユーザが操作部120を介して表示画像の表示を終了する旨の操作を行った場合、すなわち操作部120から表示画像の表示終了指示を示す操作情報を受信した場合、表示制御処理を終了する。 The control unit 150, for example, when a user when performing an operation for ending the display of the display image via the operation unit 120, i.e., that has received the operation information indicating the display end instruction of the display image from the operating unit 120 , to end the display control process.

次に、以上のように構成される構成表示処理装置100について、ユーザが表示部130に表示されている拡大画像について拡大領域の移動させる場合の具体的な動作を図14(a)及び(b)を用いて説明する。 Next, the configuration display processing apparatus 100 configured as described above, FIGS. 14 (a) and 14 a specific operation when the user moves the enlarged area for the enlarged image displayed on the display section 130 (b ) it will be described with reference to. なお、図14(a)及び(b)は、拡大領域の移動を説明するための図であり、実際には拡大領域における拡大画像が表示部130に表示される。 FIG. 14 (a) and (b) are diagrams for explaining the movement of the enlarged region, in fact the enlarged image in the enlarged region is displayed on the display unit 130.

ユーザは拡大したい領域を移動させたい場合、移動させたい方向及び距離に応じて接触式センサ121、122のセンシング領域121a、122a上をスライド操作する。 User if it is desired to move the region to be enlarged, the sensing area 121a of the contact sensor 121, the upper 122a is operated to slide in accordance with the direction and distance to be moved. この操作に応じて、拡大領域の中心点が移動するため、拡大領域を移動させることができる。 In accordance with this operation, since the center point of the enlarged area is moved, it is possible to move the magnified area. 例えば、図14(a)に示すように、センシング領域121aのX の位置にユーザの指があった場合に、ユーザがX に向かってセンシング領域121a上をスライド操作すると、その拡大領域B は、拡大領域B の位置に移動する。 For example, as shown in FIG. 14 (a), when a user's finger to the position of X 1 of the sensing area 121a, the user slid over the sensing area 121a toward the X 2, the enlarged region B 1 is moved to the position of the enlarged region B 2. 従って、表示部130に表示される拡大画像も、拡大領域B から拡大領域B への移動にともなって変化する。 Thus, the enlarged image displayed on the display unit 130 also changes in accordance with the movement of the enlarged region B 1 to enlarged region B 2. また、ユーザが指をセンシング領域121aのX からX の位置に移動させてスライド操作した後、センシング領域121aから指を離した場合、拡大領域は、拡大領域B の位置における移動速度を維持した状態で矢印b の方向に移動する。 Further, after the user has slid to move the finger from X 1 of the sensing area 121a to the position of X 2, if the finger is released from the sensing area 121a, expansion region, the moving speed at the position of the enlarged region B 2 moves in the direction of arrow b 3 while maintaining. また、拡大領域が矢印b の方向に移動している状態で、図14(b)に示すように、センシング領域122aのY の位置からY の位置に移動させてスライド操作すると、拡大領域は、拡大領域B の位置から拡大領域B の位置に斜めに移動する。 Further, with the enlarged region is moving in the direction of arrow b 3, as shown in FIG. 14 (b), when a slide operation is moved to the position of Y 5 from the position of Y 4 in the sensing area 122a, expanded region moves diagonally from the position of the enlargement area B 4 to the position of the enlargement area B 5. これは、x軸方向の移動速度が維持されているからである。 This is because the moving speed of the x-axis direction is maintained. そしてさらにセンシング領域122aのY の位置で指を離した場合、拡大領域は、拡大領域B の位置における移動速度を維持した状態で矢印b の方向に移動する。 And if further releases the finger position of Y 5 sensing regions 122a, enlarged region is moved in the direction of arrow b 6 while maintaining the moving speed at the position of the enlargement area B 5. また、拡大領域の移動を止めたい場合には、ユーザが接触式センサ121、122のセンシング領域121a、122a上をスライド操作せずに指を停止した状態にすることで、拡大領域の移動は停止する。 When it is desired to stop the movement of the enlarged region, by the state in which the user sensing area 121a of the contact sensor 121, to stop the finger on 122a without sliding operation, stop the movement of the enlarged region to.

以上のように、実施形態2に係る表示処理装置100において、ユーザは表示部130に表示されている拡大画像の拡大領域を選択する操作において、表示部130の枠に沿って設けられた2つの接触式センサ121、122により、任意の位置を拡大領域として選択することができる。 As described above, in the display processing apparatus 100 according to the second embodiment, the user in operation to select the enlargement area of ​​the enlarged image displayed on the display unit 130, two provided along the frame of the display unit 130 the contact sensor 121 and 122, it is possible to select an arbitrary position as a larger region. また、接触式センサ121、122からユーザが指を離すと、その直前までの操作に応じた速度で拡大領域が等速度で移動する。 The user from the contact sensor 121, 122 release the finger, enlarged area at a speed corresponding to the operation up to the immediately preceding move at a constant speed. 従って、ユーザは、変化に富んだ拡大領域の移動操作が可能であり、ユーザに新しい印象を与えることができる。 Therefore, the user is capable of moving operation of the variegated expansion area, it can give a new impression to the user.

なお、本発明は、上記の実施形態に限定されず、種々の変形及び応用が可能である。 The present invention is not limited to the above embodiments, and various modifications and applications. 例えば、上記の実施形態では、接触式センサ121、122として1次元の位置情報を検出する2つのタッチセンサを用いているが、これに限られない。 For example, in the above embodiment uses the two touch sensor for detecting a one-dimensional position information as a contact-type sensor 121 is not limited thereto. 例えば、表示パネル132の上に配置される透明なタッチパネル式センサを用いることで、2次元の位置情報を取得してもよい。 For example, by using a transparent touch panel sensor disposed on the display panel 132 may acquire the position information of the two-dimensional. この場合、ユーザが接触した位置に対応する表示画像上の座標を拡大領域Bの中心点P として特定すればよい。 In this case, may be specified coordinates on the display image corresponding to the user touches a position as the center point P 0 of the enlarged region B. また、表示パネル132の縁に沿って設けられるタッチセンサは2つに限られず、表示パネル132の縁に沿って3つ以上のタッチセンサが設けられてもよい。 The touch sensor provided along an edge of the display panel 132 is not limited to two, three or more touch sensors may be provided along the edges of the display panel 132.

また、実施形態1では、表示画像を切り換える操作を受け付けるための第1操作部120aである接触式センサ123を表示パネル132の長手方向の縁に沿って設けたが、設ける場所はこれに限られない。 In the first embodiment, is provided along the longitudinal edges of the display panel 132 a contact sensor 123 is a first operation unit 120a for accepting an operation for switching the display image, the location provided limited thereto Absent. 例えば、表示パネル132の短手方向の縁や、表示部130の枠の側面に設けてもよい。 For example, the lateral direction of the edge and the display panel 132 may be provided on the side surface of the frame of the display unit 130. また、上記の実施形態では、第1操作部120aの一例として接触式センサ123を用いる例を示したが、これに限られない。 In the above embodiment, an example of using a contact sensor 123 as an example of the first operating portion 120a, is not limited thereto. 例えば、第1操作部120aは、ボタンや十字キーといったハードキーから構成されてもよい。 For example, the first operation unit 120a, such as a button, a cross key may be composed of hard keys.

また、実施形態1に係る表示処理装置100が、実施形態2に係る表示処理装置のように、拡大領域がユーザの操作後に等速度で移動してもよい。 The display processing apparatus 100 according to Embodiment 1, as in the display processing apparatus according to the second embodiment, the enlarged area may move at a constant speed after the operation of the user. すなわち、実施形態1に係る位置特定部150cが、さらに実施形態2に係る位置特定部150eとして機能してもよい。 That is, the position specifying unit 150c according to the first embodiment may function as a position specifying unit 150e further according to the second embodiment. 具体的には、実施形態1に係る位置特定部150cは、図5のステップS23、24に代えて、実施形態2に係る位置特定部150eが行う図13のステップS32〜41に示す処理をすればよい。 Specifically, the position specifying unit 150c according to the first embodiment, by instead of step S23,24 5, the process shown in step S32~41 of Figure 13 performed by the position specifying unit 150e according to Embodiment 2 Bayoi. このような処理を行うことにより、位置特定部150cは、接触式センサ121、122に対するユーザの接触操作に基づいて、操作速度を算出する。 By performing such processing, the position specifying unit 150c, based on the user's contact operation to contact sensor 121, and calculates the operating speed. そして、位置特定部150cは、接触式センサ121、122に対するユーザの接触操作終了後に、接触式センサ123に対するユーザの接触操作に基づいて特定された表示画像データが表す表示画像における拡大領域を算出された移動速度で等速度運動させた場合の、移動後の拡大領域の位置を特定する。 The position specifying unit 150c, after the contacting operation end user on the contact sensor 121, the calculated enlargement area of ​​the display image represented by the display image data specified based on the user's contact operation to contact sensor 123 when obtained by uniform motion at a moving speed, identifies the location of the enlarged area after movement. そして拡大画像生成部150dは、移動後の拡大領域における拡大画像データを生成し、表示部130に出力する。 The enlarged image generating unit 150d generates an enlarged image data in the enlarged area after movement, and outputs to the display unit 130.

なお、この発明の実施の形態にかかる表示処理装置100は、専用の装置によらず、通常のコンピュータシステムを用いて実現可能である。 The display processing apparatus 100 according to the embodiment of the invention, irrespective of the dedicated device may be realized using a normal computer system. 例えば、ネットワークカード等を備えたコンピュータに上述の処理を実行するためのプログラムを格納した媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)から当該プログラムをインストールすることにより、上述の処理を実行する表示処理装置を構成することができる。 For example, medium containing a program for the computer with a network card or the like and executes the above-described processing (flexible disk, CD-ROM, DVD-ROM, etc.) by installing the program from executing the processing described above it is possible to construct a display processing device for.

また、コンピュータにプログラムを供給するための手法は任意である。 Further, the method for supplying the program to the computer is optional. 例えば、通信回線、通信ネットワーク、通信システム等を介して供給してもよい。 For example, a communication line, a communication network, may be supplied through the communication system or the like. 一例を挙げると、通信ネットワークの掲示板(BBS)に当該プログラムを掲示し、これをネットワークを介して搬送波に重畳して配信することにより、上述の処理を実行することができる。 As an example, the program posted on the bulletin board of a communication network (BBS), which by via the network to deliver superimposed on a carrier wave, it is possible to perform the processing described above.

100…表示処理装置、110…記憶部、111…二次記憶装置、112…制御プログラム、113…表示画像DB、120…操作部、120a…第1操作部、120b…第2操作部、121〜123…接触式センサ、121a〜123a…センシング領域、124…入力キー、130…表示部、131…駆動回路、132…表示パネル、140…読出・書込部、141…メディアコントローラ、150…制御部、150a…表示画像特定部、150b…画像特定部、150c…位置特定部、150d…拡大画像生成部、150e…位置特定部、151…CPU、152…一次記憶装置 100 ... display processor, 110 ... storage unit, 111 ... secondary storage device, 112 ... control program, 113 ... display image DB, 120 ... operation unit, 120a ... first operating portion, 120b ... second operating unit, 121 to 123 ... contact sensor, 121A~123a ... sensing area, 124 ... input key, 130 ... display unit, 131 ... driving circuit, 132 ... display panel, 140 ... reading and writing unit, 141 ... media controller, 150 ... control unit , 150a ... display image selecting unit, 150b ... image specifying unit, 150c ... position specifying unit, 150d ... enlarged image generating unit, 150e ... position specifying unit, 151 ... CPU, 152 ... primary storage device

Claims (4)

  1. 画像を表示する表示処理装置であって、 A display processing device for displaying an image,
    ユーザによる第1の操作を受け付ける第1操作部と、 A first operation unit that receives the first operation by the user,
    前記第1操作部が前記ユーザによる前記第1の操作を受け付けている間に、前記ユーザによる第2の操作を受け付ける第2操作部と、 While the first operation unit is accepting the first operation by the user, a second operation unit that receives second operation by the user,
    複数の画像を記憶する記憶手段と、 Storage means for storing a plurality of images,
    前記画像の特定領域を拡大した拡大画像を生成して表示する拡大画像生成手段と、 An enlarged image generating means for generating and displaying an enlarged image obtained by enlarging the specific area of the image,
    前記第1操作部が受け付けている前記ユーザによる前記第1の操作により、 前記記憶手段に記憶された前記複数の画像から1つの画像を順次特定する第1命令実行手段と、 By the first operation by the user to the first operation section is accepted, the first instruction execution means for sequentially specifying one image from the plurality of images stored in the storage means,
    前記第1命令実行手段が特定している前記画像において、前記第2操作部が受け付けている前記ユーザによる前記第2の操作に対応する位置を順次特定し、前記第1命令実行手段が前記画像を順次特定している間に、前記第1命令実行手段が特定している画像において、前記第2の操作により特定した位置に対応する領域を前記拡大画像生成手段により拡大表示する第2命令実行手段と、 In the image where the first instruction execution unit is identified, the second operating portion is a position corresponding to the second operation by the user are sequentially identified that accepted the first instruction execution unit the image the while sequentially particular, in an image where the first instruction execution unit is identified, a second instruction execution the region corresponding to the specified position by the second operation to enlarge by the enlarged image generating unit and means,
    を備えることを特徴とする表示処理装置。 Display processing apparatus comprising: a.
  2. 前記第2命令実行手段は、前記第2操作部が受け付けている前記ユーザによる前記第2の操作に基づいて、前記第2の操作の操作速度を算出し、前記第2操作部が前記ユーザによる前記第2の操作を受け付けた後に、算出された前記第2の操作の操作速度に対応する移動速度で前記位置を移動させる、 Said second instruction execution means, by the second operating portion by the user are accepted based on the second operation, the second calculates the operating speed of operation, the second operation unit is the user after receiving the second operation moves the position at a moving speed corresponding to the operation speed of the calculated second operations,
    ことを特徴とする請求項に記載の表示処理装置。 The display processing apparatus according to claim 1, characterized in that.
  3. 画像を表示する表示処理装置において、 In the display processing device for displaying an image,
    ユーザによる第1の操作を受け付ける第1操作ステップと、 A first operation step of accepting a first operation by the user,
    前記第1操作ステップが前記ユーザによる前記第1の操作を受け付けている間に、前記ユーザによる第2の操作を受け付ける第2操作ステップと、 While the first operation step is accepting the first operation by the user, and a second operation step of accepting a second operation by the user,
    複数の画像を記憶する記憶ステップと、 A storing step of storing a plurality of images,
    前記画像の特定領域を拡大した拡大画像を生成して表示する拡大画像生成ステップと、 An enlarged image generating step for generating and displaying an enlarged image obtained by enlarging the specific area of the image,
    前記第1操作ステップが受け付けている前記ユーザによる前記第1の操作により、 前記記憶ステップで記憶された前記複数の画像から1つの画像を順次特定する第1命令実行ステップと、 By the first operation by the user to the first operation step is accepting a first instruction execution step of sequentially identifying one image from the plurality of images stored in said storing step,
    前記第1命令実行ステップが特定している前記画像において、前記第2操作ステップが受け付けている前記ユーザによる前記第2の操作に対応する位置を順次特定し、前記第1命令実行ステップが前記画像を順次特定している間に、前記第1命令実行ステップが特定している画像において、前記第2の操作により特定した位置に対応する領域を前記拡大画像生成ステップにより拡大表示する第2命令実行ステップと、 In the image the first instruction execution step is identified, the second sequence to identify the position corresponding to the second operation by the user operating step is accepted, the first instruction execution step is the image the while sequentially particular, in an image where the first instruction execution step is identified, a second instruction execution the region corresponding to the specified position by the second operation to enlarge by the enlarged image generating step and the step,
    を備えることを特徴とする表示処理方法。 Display processing method comprising: a.
  4. ユーザによる第1の操作を受け付ける第1操作部と、前記第1操作部が前記ユーザによる前記第1の操作を受け付けている間に、前記ユーザによる第2の操作を受け付ける第2操作部と、を備えるコンピュータを、 A first operation unit that receives the first operation by the user, while the first operation unit is accepting the first operation by the user, a second operation unit that receives second operation by the user, the Bei obtain computer,
    複数の画像を記憶する記憶手段、 Storage means for storing a plurality of images,
    前記画像の特定領域を拡大した拡大画像を生成して表示する拡大画像生成手段、 Enlarged image generating means for generating and displaying an enlarged image obtained by enlarging the specific area of the image,
    前記第1操作部が受け付けている前記ユーザによる前記第1の操作により、 前記記憶手段に記憶された前記複数の画像から1つの画像を順次特定する第1命令実行手段、 Wherein by the first operation by the user first operating unit is accepted, the first instruction execution means for sequentially specifying one image from the plurality of images stored in the storage means,
    前記第1命令実行手段が特定している前記画像において、前記第2操作部が受け付けている前記ユーザによる前記第2の操作に対応する位置を順次特定し、前記第1命令実行手段が前記画像を順次特定している間に、前記第1命令実行手段が特定している画像において、前記第2の操作により特定した位置に対応する領域を前記拡大画像生成手段により拡大表示する第2命令実行手段、 In the image where the first instruction execution unit is identified, the second operating portion is a position corresponding to the second operation by the user are sequentially identified that accepted the first instruction execution unit the image the while sequentially particular, in an image where the first instruction execution unit is identified, a second instruction execution the region corresponding to the specified position by the second operation to enlarge by the enlarged image generating unit means,
    として機能させることを特徴とする表示処理プログラム。 Display processing program for causing to function as.
JP2010003284A 2010-01-08 2010-01-08 Display processing apparatus, a display processing method and display processing program Active JP5515752B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010003284A JP5515752B2 (en) 2010-01-08 2010-01-08 Display processing apparatus, a display processing method and display processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010003284A JP5515752B2 (en) 2010-01-08 2010-01-08 Display processing apparatus, a display processing method and display processing program

Publications (3)

Publication Number Publication Date
JP2011142589A JP2011142589A (en) 2011-07-21
JP2011142589A5 JP2011142589A5 (en) 2013-02-07
JP5515752B2 true JP5515752B2 (en) 2014-06-11

Family

ID=44458112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010003284A Active JP5515752B2 (en) 2010-01-08 2010-01-08 Display processing apparatus, a display processing method and display processing program

Country Status (1)

Country Link
JP (1) JP5515752B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4557058B2 (en) * 2007-12-07 2010-10-06 ソニー株式会社 Information display terminal, information display method, and program

Also Published As

Publication number Publication date
JP2011142589A (en) 2011-07-21

Similar Documents

Publication Publication Date Title
CA2781607C (en) Gallery application for content viewing
US9513765B2 (en) Three-dimensional sliding object arrangement method and system
US8723988B2 (en) Using a touch sensitive display to control magnification and capture of digital images by an electronic device
CN104205098B (en) It navigates using between the content item of array pattern in a browser
US20110316888A1 (en) Mobile device user interface combining input from motion sensors and other controls
US9383898B2 (en) Information processing apparatus, information processing method, and program for changing layout of displayed objects
US9747016B2 (en) Information processing device, information processing method, and information processing program for selectively changing a value or a change speed of the value by a user operation
CN101202866B (en) Video signal output device and operation input processing method
JP5087532B2 (en) Terminal, a display control method and a display control program
US20100103136A1 (en) Image display device, image display method, and program product
JP5700783B2 (en) Information processing program, an information processing apparatus, an information processing system, and an information processing method
EP2068235A2 (en) Input device, display device, input method, display method, and program
EP1729207A2 (en) System and methods for navigating displayed content
US8760418B2 (en) Display control apparatus, display control method and display control program
US8441460B2 (en) Apparatus and method for providing side touch panel as part of man-machine interface (MMI)
US9122388B2 (en) Method and apparatus for controlling touch screen using timeline bar, recording medium with program for the same recorded therein, and user terminal having the same
US8533622B2 (en) Integrating digital book and zoom interface displays
US9047006B2 (en) Electronic device system with information processing mechanism and method of operation thereof
JP5734037B2 (en) Information processing apparatus and its control method and program
US20140223381A1 (en) Invisible control
US8830184B2 (en) Image displaying device, image displaying method, and program for displaying images
US20070120835A1 (en) Input device and scroll control method using the same
JP3977684B2 (en) Digital still camera
EP2354913A2 (en) Method and system for providing a user interface for accessing multimedia items on an electronic device
US8681111B2 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130827

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140317

R150 Certificate of patent or registration of utility model

Ref document number: 5515752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150