JP2011154533A - Device and program for controlling display - Google Patents

Device and program for controlling display Download PDF

Info

Publication number
JP2011154533A
JP2011154533A JP2010015582A JP2010015582A JP2011154533A JP 2011154533 A JP2011154533 A JP 2011154533A JP 2010015582 A JP2010015582 A JP 2010015582A JP 2010015582 A JP2010015582 A JP 2010015582A JP 2011154533 A JP2011154533 A JP 2011154533A
Authority
JP
Japan
Prior art keywords
image
area
display
image data
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010015582A
Other languages
Japanese (ja)
Inventor
Masatoshi Watanuki
正敏 綿貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010015582A priority Critical patent/JP2011154533A/en
Publication of JP2011154533A publication Critical patent/JP2011154533A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display control device and a display control program, allowing a user to intuitively compare an original image and an image after image processing in linking with operation of the user. <P>SOLUTION: The display control device includes a display control part 114 generating a second image wherein the image processing is applied to an area AR of a first image represented by image data based on an area PR and the area AR set by an area setting means and the image data obtained by an image data acquisition means, and displaying the generated second image on a display part. The area AR and the area PR are adjacent to each other along a prescribed direction, and an area setting part 112 moves a boundary between the area AR and the area PR according to movement of a contact position when the contact position detected by a sensor control means moves. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、表示制御装置、および、表示制御プログラムに関する。   The present invention relates to a display control device and a display control program.

デジタルカメラの普及により、デジタルデータで記録された写真画像を得ることが一般的となっている。従来のフィルムカメラによる撮影の場合、プリントを伴うことが多かったが、デジタル方式の場合、撮影したデジタルカメラで閲覧したり、画像データを取り込んだパーソナルコンピュータなどで閲覧したりすることができるため、写真の楽しみ方にも変化が生じている。   With the widespread use of digital cameras, it has become common to obtain photographic images recorded with digital data. In the case of shooting with a conventional film camera, it was often accompanied by a print, but in the case of a digital system, it can be viewed with a digital camera that has shot, or with a personal computer that has captured image data, There are also changes in the way photos are enjoyed.

このような状況において、デジタル写真でも従来のプリント写真と同様の楽しみ方ができるようにするため、いわゆるデジタルフォトフレームが実現され普及している(例えば、特許文献1)。   Under such circumstances, so-called digital photo frames are realized and popularized so that digital photographs can be enjoyed in the same way as conventional printed photographs (for example, Patent Document 1).

このようなデジタルフォトフレームでは、デジタル方式の特性を活かし、従来のプリント写真を掲出するフォトフレームではできなかった複数の写真をスライドショー形式で表示するなどの多様な表示態様を実現することができるとともに、取得した写真画像に画像処理を加えることで、例えば、元の写真をベースとしつつも趣の異なる写真画像(例えば、絵画調など)等を生成して表示することもできる。   Such a digital photo frame can realize various display modes such as displaying a plurality of photos in a slide show format, which was not possible with a photo frame displaying a conventional print photo, utilizing the characteristics of the digital system. By applying image processing to the acquired photographic image, for example, it is possible to generate and display a photographic image (for example, a painting style) having a different taste while using the original photo as a base.

特開2009−141678号公報JP 2009-141678 A

しかしながら、上記技術では、元の画像と画像処理後の画像とをユーザの操作に連動してユーザが直感的に比べることができなかった。   However, in the above technique, the user cannot intuitively compare the original image and the image after image processing in conjunction with the user's operation.

本発明は、元の画像と画像処理後の画像とをユーザの操作に連動してユーザが直感的に比べることができる表示制御装置、および、表示制御プログラムを提供することを目的とする。   An object of the present invention is to provide a display control device and a display control program that allow a user to intuitively compare an original image and an image after image processing in conjunction with a user operation.

上記目的を達成するため、本発明の第1の観点にかかる表示制御装置は、
ユーザからの接触操作を検出するためのセンサ部によって、前記センサ部における前記ユーザが接触操作した位置である接触位置を検出するセンサ制御手段と、
第1画像を表す画像データを取得する画像データ取得手段と、
前記画像データ取得手段が取得した前記画像データが表す前記第1画像における第1領域と第2領域とを、前記センサ制御手段が検出した前記接触位置に応じて設定する領域設定手段と、
前記画像データ取得手段が取得した前記画像データと前記領域設定手段が設定した前記第1領域及び前記第2領域とに基づいて、前記画像データが表す前記第1画像の前記第1領域に画像処理を施した第2画像を生成し、生成した前記第2画像を前記表示部に表示する表示制御手段と、を備え、
前記第1領域と前記第2領域とは、所定方向に沿って隣り合っており、
前記領域設定手段は、前記センサ制御手段によって検出した接触位置が移動すると前記第1領域と前記第2領域との境界を前記接触位置の移動に応じて移動させる。
In order to achieve the above object, a display control apparatus according to the first aspect of the present invention provides:
Sensor control means for detecting a contact position, which is a position where the user performs a contact operation in the sensor unit, with a sensor unit for detecting a contact operation from a user;
Image data acquisition means for acquiring image data representing the first image;
Area setting means for setting the first area and the second area in the first image represented by the image data acquired by the image data acquisition means according to the contact position detected by the sensor control means;
Based on the image data acquired by the image data acquisition means and the first area and the second area set by the area setting means, image processing is performed on the first area of the first image represented by the image data. Display control means for generating a second image subjected to the above and displaying the generated second image on the display unit,
The first region and the second region are adjacent to each other along a predetermined direction,
The area setting means moves the boundary between the first area and the second area according to the movement of the contact position when the contact position detected by the sensor control means moves.

上記目的を達成するため、本発明の第2の観点にかかる表示制御プログラムは、
コンピュータに、
ユーザからの接触操作を検出するためのセンサ部によって、前記センサ部における前記ユーザが接触操作した位置である接触位置を検出するセンサ制御手段と、
第1画像を表す画像データを取得する画像データ取得手段と、
前記画像データ取得手段が取得した前記画像データが表す前記第1画像における第1領域と第2領域とを、前記センサ制御手段が検出した前記接触位置に応じて設定する領域設定手段と、
前記画像データ取得手段が取得した前記画像データと前記領域設定手段が設定した前記第1領域及び前記第2領域とに基づいて、前記画像データが表す前記第1画像の前記第1領域に画像処理を施した第2画像を生成し、生成した前記第2画像を前記表示部に表示する表示制御手段と、として機能させ、
前記第1領域と前記第2領域とは、所定方向に沿って隣り合っており、
前記領域設定手段は、前記センサ制御手段によって検出した接触位置が移動すると前記第1領域と前記第2領域との境界を前記接触位置の移動に応じて移動させる。
In order to achieve the above object, a display control program according to the second aspect of the present invention provides:
On the computer,
Sensor control means for detecting a contact position, which is a position where the user performs a contact operation in the sensor unit, with a sensor unit for detecting a contact operation from a user;
Image data acquisition means for acquiring image data representing the first image;
Area setting means for setting the first area and the second area in the first image represented by the image data acquired by the image data acquisition means according to the contact position detected by the sensor control means;
Based on the image data acquired by the image data acquisition means and the first area and the second area set by the area setting means, image processing is performed on the first area of the first image represented by the image data. And a display control means for displaying the generated second image on the display unit,
The first region and the second region are adjacent to each other along a predetermined direction,
The area setting means moves the boundary between the first area and the second area according to the movement of the contact position when the contact position detected by the sensor control means moves.

本発明によれば、元の画像と画像処理後の画像とをユーザの操作に連動してユーザが直感的に比べることができる表示制御装置、および、表示制御プログラムを提供することができる。   According to the present invention, it is possible to provide a display control device and a display control program that allow a user to intuitively compare an original image and an image after image processing in conjunction with a user operation.

本発明の実施形態1にかかる表示制御装置の外観を示す図である。It is a figure which shows the external appearance of the display control apparatus concerning Embodiment 1 of this invention. 図1に示す表示制御装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the display control apparatus shown in FIG. 図2に示す制御部の構成を示す図である。It is a figure which shows the structure of the control part shown in FIG. 本発明の実施形態1にかかる「タッチ連動表示処理」を説明するためのフローチャートである。It is a flowchart for demonstrating the "touch interlocking | linkage display process" concerning Embodiment 1 of this invention. 図4に示す「タッチ連動表示処理」で実行される「表示変更処理(1)」を説明するためのフローチャートである。5 is a flowchart for explaining a “display change process (1)” executed in the “touch-linked display process” shown in FIG. 4. 図4に示す「タッチ連動表示処理」で実行される「表示変更処理(2)」を説明するためのフローチャートである。5 is a flowchart for explaining a “display change process (2)” executed in the “touch-linked display process” shown in FIG. 4. 図4に示す「タッチ連動表示処理」での動作例を説明するための図であり、(a)は、元画像と変換画像の例を示し、(b)は、元画像が表示された状態の例を示し、(c)は、タッチセンサ上に設定された領域の例を示す。FIGS. 5A and 5B are diagrams for explaining an operation example in “touch-linked display processing” shown in FIG. 4, in which FIG. 4A shows an example of an original image and a converted image, and FIG. 5B shows a state in which the original image is displayed; (C) shows an example of a region set on the touch sensor. 図5に示す「表示変更処理(1)」での動作例を説明するための図であり、(a)は、タッチセンサで検出された手指スライドに応じて設定される領域の例を示し、(b)は、手指スライドに応じて切り替えられた画面表示の例を示し、(c)は、画像切替時に付加される表示演出の例を示す。It is a figure for demonstrating the operation example in "display change process (1)" shown in FIG. 5, (a) shows the example of the area | region set according to the finger slide detected by the touch sensor, (B) shows the example of the screen display switched according to finger slide, (c) shows the example of the display effect added at the time of image switching. 図6に示す「表示変更処理(2)」にかかる表示変化の例を示す図である。It is a figure which shows the example of the display change concerning "display change process (2)" shown in FIG. 本発明の実施形態2にかかる表示変化の例を示す図である。It is a figure which shows the example of the display change concerning Embodiment 2 of this invention. 本発明の実施形態2にかかる表示変化の他の例を示す図である。It is a figure which shows the other example of the display change concerning Embodiment 2 of this invention. 本発明の実施形態3にかかるデジタルフォトフレームの外観構成の例を示す図である。It is a figure which shows the example of the external appearance structure of the digital photo frame concerning Embodiment 3 of this invention. 本発明の実施形態4にかかるデジタルフォトフレームの動作例を示す図であり、(a)は、タッチパネル上での手指接触面積に応じて処理を異ならせる場合の画面表示例を示し、(b)は、タッチパネル上のマルチタッチによって指定される領域の例を示す図である。It is a figure which shows the operation example of the digital photo frame concerning Embodiment 4 of this invention, (a) shows the example of a screen display in the case of changing a process according to the finger contact area on a touch panel, (b) These are figures which show the example of the area | region designated by the multi touch on a touchscreen.

(実施形態1)
本発明にかかる実施形態を、図面を参照して以下に説明する。本実施形態では、本発明にかかる表示制御装置を、図1に示すようなデジタルフォトフレーム100によって実現した場合を例示する。本実施形態にかかるデジタルフォトフレーム100は、図1に示すように、フォトフレーム(写真立て)を模した筐体に表示パネル(表示部120)を構成し、デジタルデータによる写真画像などを表示する機能を有するデジタルフォトフレームであり、このようなデジタルフォトフレームの一般的な構成に加え、手指の接触などを感知するタッチセンサ(センサ部130)が構成される。
(Embodiment 1)
Embodiments according to the present invention will be described below with reference to the drawings. In the present embodiment, a case where the display control apparatus according to the present invention is realized by a digital photo frame 100 as shown in FIG. 1 is exemplified. As shown in FIG. 1, the digital photo frame 100 according to the present embodiment includes a display panel (display unit 120) in a housing simulating a photo frame (photo frame), and displays a photographic image or the like based on digital data. This is a digital photo frame having a function, and in addition to the general configuration of such a digital photo frame, a touch sensor (sensor unit 130) that senses a finger touch or the like is configured.

このようなデジタルフォトフレーム100のハードウェア構成を、図2を参照して説明する。   The hardware configuration of the digital photo frame 100 will be described with reference to FIG.

図示するように、本実施形態にかかるデジタルフォトフレーム100は、制御部110、表示部120、センサ部130、操作部140、I/F部150、記憶部160、などから構成されている。   As illustrated, the digital photo frame 100 according to the present embodiment includes a control unit 110, a display unit 120, a sensor unit 130, an operation unit 140, an I / F unit 150, a storage unit 160, and the like.

制御部110は、例えば、CPU(Central Processing Unit:中央演算処理装置)などのプロセッサや、RAM(Random Access Memory)などの主記憶装置(メモリ)、VRAM(Video RAM)などの表示用記憶装置、などから構成され、デジタルフォトフレーム100の各部を制御することで、デジタルフォトフレーム100の主要な動作(後述するタッチ連動表示処理)が実現される。特に、本実施形態では、CPUが記憶部160に記録された表示制御プログラムを実行することで、制御部110が行う後述するタッチ連動表示処理(制御部110が備える、後述の画像データ取得部111と領域設定部112と表示制御部114とセンサ制御部113とが実際に行うタッチ連動表示処理)を実行される。   The control unit 110 includes, for example, a processor such as a CPU (Central Processing Unit), a main storage device (memory) such as a RAM (Random Access Memory), a display storage device such as a VRAM (Video RAM), The main operation of the digital photo frame 100 (touch-linked display processing described later) is realized by controlling each part of the digital photo frame 100. In particular, in the present embodiment, the CPU executes a display control program recorded in the storage unit 160, whereby a touch-linked display process (described later, which is included in the control unit 110, is performed by the control unit 110). The touch setting display process actually performed by the area setting unit 112, the display control unit 114, and the sensor control unit 113 is executed.

表示部120は、例えば、液晶表示パネルや有機EL(Electro-Luminescence)パネルなどの表示パネルや表示パネルを駆動させるドライバ回路などから構成され、制御部110の制御のもと、制御部110が生成等した画像データに基づく画像などを表示する。   The display unit 120 includes, for example, a display panel such as a liquid crystal display panel or an organic EL (Electro-Luminescence) panel, a driver circuit that drives the display panel, and the like, and is generated by the control unit 110 under the control of the control unit 110. An image based on the image data is displayed.

センサ部130は、例えば、静電容量方式のタッチセンサなどから構成され、デジタルフォトフレーム100の使用者による手指の接触による操作(接触操作)を検出するためのものである。センサ部130は、タッチ位置(座標で表現される。)、接触の内容(例えば、押圧力)などに応じた検出信号を生成して制御部110に供給する。センサ部130を構成するタッチセンサは、例えば、図1に示すような略矩形の形状であり、長手方向で表示パネルと平行するように表示パネルの近傍に配置されているものとする。また、タッチセンサと表示パネルの長手方向のサイズは略同一であるものとし、タッチセンサ上でのタッチ位置(接触位置)と表示パネル上のx方向(横方向)の座標とが、必要十分な精度で対応しているものとする。   The sensor unit 130 includes, for example, a capacitive touch sensor and the like, and is for detecting an operation (contact operation) caused by a finger contact by a user of the digital photo frame 100. The sensor unit 130 generates a detection signal corresponding to the touch position (expressed by coordinates), the content of contact (for example, pressing force), and supplies the detection signal to the control unit 110. The touch sensor constituting the sensor unit 130 has, for example, a substantially rectangular shape as shown in FIG. 1 and is arranged in the vicinity of the display panel so as to be parallel to the display panel in the longitudinal direction. In addition, the size of the touch sensor and the display panel in the longitudinal direction is substantially the same, and the touch position (contact position) on the touch sensor and the coordinate in the x direction (lateral direction) on the display panel are necessary and sufficient. Assume that it corresponds with accuracy.

操作部140は、例えば、デジタルフォトフレーム100の外面上に構成されている各種ボタンなどによって構成され、デジタルフォトフレーム100の使用者(ユーザ)による操作に応じた操作信号を生成して制御部110に供給する。操作部140が操作されることにより、例えば、デジタルフォトフレーム100の電源オン・オフや動作モードの設定、表示させる画像の選択、などがおこなわれる。   The operation unit 140 includes, for example, various buttons configured on the outer surface of the digital photo frame 100, and generates an operation signal according to an operation by a user (user) of the digital photo frame 100 to control the control unit 110. To supply. By operating the operation unit 140, for example, power on / off of the digital photo frame 100, setting of an operation mode, selection of an image to be displayed, and the like are performed.

I/F部150は、外部装置とのインタフェース(I/F)であり、例えば、画像データが保存されたメモリカードなどの外部記憶媒体が着脱されるカードスロットや、デジタルカメラやパーソナルコンピュータなどから転送される画像データを取得するためのインタフェース(例えば、USB(Universal Serial Bus)ポートなど)、などから構成される。   The I / F unit 150 is an interface (I / F) with an external device. For example, the I / F unit 150 is connected to a card slot to which an external storage medium such as a memory card storing image data is attached, a digital camera, a personal computer, or the like. An interface (for example, a USB (Universal Serial Bus) port) for acquiring image data to be transferred is configured.

記憶部160は、例えば、ROM(Read Only Memory)やフラッシュメモリなどの記憶装置から構成され、デジタルフォトフレーム100の動作に必要なプログラムやデータなどを格納する。本実施形態では、制御部110などがタッチ連動表示処理を実行するのに必要な、表示制御プログラム、パラメータ、演算式等が記憶部160に記録されているものとする。   The storage unit 160 includes a storage device such as a ROM (Read Only Memory) or a flash memory, and stores programs and data necessary for the operation of the digital photo frame 100, for example. In the present embodiment, it is assumed that a display control program, parameters, arithmetic expressions, and the like necessary for the control unit 110 and the like to execute the touch-linked display process are recorded in the storage unit 160.

以上が本実施形態にかかるデジタルフォトフレーム100を構成している主要なハードウェア構成となるが、デジタルフォトフレームとしての基本機能や種々の付加機能に用いられる構成は必要に応じて備えられているものとする。   The above is the main hardware configuration constituting the digital photo frame 100 according to the present embodiment, but the configuration used for the basic functions and various additional functions as a digital photo frame is provided as necessary. Shall.

本実施形態では、以上のような構成のデジタルフォトフレーム100で、例えば、デジタルカメラなどで撮影した写真画像を表示させる場合を想定する。この場合において、本実施形態にかかるデジタルフォトフレーム100では、取得した写真画像(以下、「元画像」とする)の画像データを加工することで、同じ写真画像からこの写真画像とは異なる画風に変換した画像(以下、「変換画像」とする)を生成して表示可能であるものとする。   In the present embodiment, it is assumed that a photographic image taken with a digital camera or the like is displayed on the digital photo frame 100 configured as described above. In this case, in the digital photo frame 100 according to the present embodiment, by processing the image data of the acquired photographic image (hereinafter referred to as “original image”), the same photographic image has a different style from this photographic image. It is assumed that a converted image (hereinafter referred to as “converted image”) can be generated and displayed.

制御部110(特に後述の表示制御部114)は、ラスタ形式の画像データを扱うグラフィックソフト(いわゆるペイント系ソフト(例えば、フォトショップ(PHOTOSHOP:登録商標))で用いられているフィルタ(アートフィルタ)などと同様の効果となる画像処理をおこなうことで、取得した元画像についての種々のパラメータを変更し、例えば、絵画調(油絵風、ちぎり絵風、水墨画風等)の画像などの変換画像を生成する。この場合の画像処理の種類は任意であり、実行可能な画像処理によって実現できる種々の画像変換(例えば、モノクロ調への変換、セピア調への変換、ソフトフォーカス調への変換、ビビッド調への変換、モザイク調への変換、ミニチュア写真風への変換、など)が適用されうる。なお、上記のパラメータは、画像処理を施すときに使用される各種数値である。このようなパラメータは、画像処理の性質を表す数値であり、例えば、明るさ、画像変換の細かさ、なめらかさ、テクスチャを規定する値等、画像処理の種類(変更する画風の種類)によって、様々なもので構成される。ここでは、このパラメータによって画風の変更の度合い(画像処理の度合い)が表現される。ここでは、パラメータの上下に応じて、画像処理の度合いも上下する。また、パラメータが大きければ、つまり、画像処理の度合いが大きければ、画像処理の前後の画像の変化が大きくなる。つまり、画像処理の度合い(ここでは、パラメータ)とは、例えば、画像処理の前後の画像を比べたときの変化の度合いである。前記のパラメータは、例えば、描画パラメータであり、例えば、フォトショップ等で使用される画像変換のパラメータ等である。   The control unit 110 (particularly, the display control unit 114 described later) is a filter (art filter) used in graphic software (so-called paint software (for example, Photoshop (registered trademark)) that handles raster-format image data. By performing image processing that has the same effect as the above, various parameters of the acquired original image are changed, and for example, a converted image such as a painting-like image (oil painting style, tearing style, ink painting style, etc.) The type of image processing in this case is arbitrary, and various image conversions that can be realized by executable image processing (for example, conversion to monochrome tone, conversion to sepia tone, conversion to soft focus tone, vivid) Conversion to tones, conversion to mosaics, conversion to miniature photography, etc.). The parameters are various numerical values used when performing image processing, and such parameters are numerical values representing the nature of image processing, and specify, for example, brightness, fineness of image conversion, smoothness, and texture. Depending on the type of image processing (type of style to be changed) such as a value to be changed, the degree of style change (degree of image processing) is expressed by this parameter. The degree of image processing increases and decreases depending on the parameter, and if the parameter is large, that is, if the degree of image processing is large, the change in the image before and after the image processing becomes large. (Here, the parameter) is, for example, the degree of change when the images before and after the image processing are compared. There, for example, a parameter such as image conversion used in Photoshop, or the like.

本実施形態では、このような画像処理やその表示動作を、センサ部130を構成するタッチセンサへの手指接触と連動させることにより、より利便性の高い画像表示の実現を図る。   In the present embodiment, such image processing and display operation thereof are linked with finger contact with the touch sensor constituting the sensor unit 130, thereby realizing more convenient image display.

次に制御部110の構成について図3を参照して説明する。制御部110は、画像データ取得部111、領域設定部112、センサ制御部113、表示制御部114、などを備える。上述のように、これらの各部が行う処理は、ここでは、CPUによって行われ、これらの各部は制御部110の構成要素であるCPU、RAM、VRAM等の組み合わせによって構成される。   Next, the configuration of the control unit 110 will be described with reference to FIG. The control unit 110 includes an image data acquisition unit 111, a region setting unit 112, a sensor control unit 113, a display control unit 114, and the like. As described above, the processing performed by each of these units is performed by the CPU here, and each of these units is configured by a combination of CPU, RAM, VRAM, and the like that are components of the control unit 110.

画像データ取得部111は、デジタルフォトフレーム100で表示する画像(元画像)を表す画像データを取得する。ここでは、例えば、I/F部150を制御することで、メモリカード又は外部装置(デジタルカメラ、パーソナルコンピュータなど)などから写真画像などを表す画像データを取得する。デジタルフォトフレーム100の外部から取得された画像データは、記憶部160に保存されていてもよく、この場合は、画像データ取得部111は、表示対象となる写真画像の画像データを記憶部160から取得する。   The image data acquisition unit 111 acquires image data representing an image (original image) displayed on the digital photo frame 100. Here, for example, by controlling the I / F unit 150, image data representing a photographic image or the like is acquired from a memory card or an external device (digital camera, personal computer, etc.). The image data acquired from the outside of the digital photo frame 100 may be stored in the storage unit 160. In this case, the image data acquisition unit 111 receives the image data of the photographic image to be displayed from the storage unit 160. get.

画像データ取得部111は、表示対象となる画像データを取得すると、この取得した画像データを保持する(例えば、RAMに展開する)。なお、表示対象となる画像データや画像の取得元などの選択は、デジタルフォトフレーム100の使用者による操作部140の操作に基づいてなされる。   When the image data acquisition unit 111 acquires image data to be displayed, the image data acquisition unit 111 holds the acquired image data (for example, develops it in a RAM). Note that image data to be displayed, an image acquisition source, and the like are selected based on an operation of the operation unit 140 by a user of the digital photo frame 100.

センサ制御部113は、センサ部130を制御し、タッチセンサ上での接触操作に応じた検出信号を取得する。この検出信号に基づいて、センサ制御部113は、タッチ位置、接触の内容等を検出する。   The sensor control unit 113 controls the sensor unit 130 and acquires a detection signal corresponding to the contact operation on the touch sensor. Based on this detection signal, the sensor control unit 113 detects the touch position, the content of contact, and the like.

領域設定部112は、センサ制御部113が検出したタッチ位置等に基づいて、画像データ取得手段が保持する画像データが表す元画像における二つの領域を設定する。この二つの領域を第1領域と第2領域とする。この二つの領域は、タッチ位置の変化に応じて動的に変化する。   The area setting unit 112 sets two areas in the original image represented by the image data held by the image data acquisition unit based on the touch position detected by the sensor control unit 113. These two areas are defined as a first area and a second area. These two areas change dynamically according to the change of the touch position.

表示制御部114は、画像データ取得部111が取得しRAMに展開されている元画像の画像データ(以下、元画像データという。)を加工することで、異なる画風の変換画像の画像データ(以下、変換画像データという。)を生成する。ここでは、上述したような、ラスタ画像用のグラフィックソフトにおけるフィルタ(アートフィルタ)などと同様の動作をおこなうことで、元画像データを加工して変換画像データを生成する。すなわち、元画像を変換した変換画像が生成される。本実施形態では、センサ部130のタッチセンサで検出された手指接触と連動した表示制御(詳細後述)がおこなわれるものとするが、元画像を表示している過程で操作部140が任意に操作されることに応じて、画像処理がおこなわれてもよい。   The display control unit 114 processes the image data (hereinafter referred to as original image data) of the original image acquired by the image data acquisition unit 111 and developed in the RAM, thereby converting the image data (hereinafter referred to as converted image) of different styles. , Referred to as converted image data). Here, the original image data is processed to generate converted image data by performing the same operation as the above-described filter (art filter) in raster image graphic software. That is, a converted image obtained by converting the original image is generated. In this embodiment, display control (details will be described later) is performed in conjunction with the finger contact detected by the touch sensor of the sensor unit 130. However, the operation unit 140 is arbitrarily operated in the process of displaying the original image. In response to this, image processing may be performed.

1つの元画像から生成される変換画像は1つに限られるものではなく、例えば、異なる画像処理を施した複数種類の変換画像(つまり、画風が異なる複数種の変換画像)が生成されてもよく、あるいは、同じ画像処理でパラメータを異ならせた複数種類の変換画像(つまり、画像処理の度合いが異なる複数種の変換画像)が生成されてもよい。なお、表示制御(タッチ連動表示処理等も含む)に必要となる表示制御プログラムやデータ(パラメータ等)などは記憶部160に格納されているものとし、生成された変換画像データは、RAMやVRAMに展開される他、必要に応じて記憶部160などに保存される。   The number of converted images generated from one original image is not limited to one. For example, even if a plurality of types of converted images subjected to different image processing (that is, a plurality of types of converted images having different styles) are generated. Alternatively, a plurality of types of converted images (that is, a plurality of types of converted images having different degrees of image processing) with different parameters may be generated by the same image processing. It is assumed that a display control program and data (such as parameters) necessary for display control (including touch-linked display processing) are stored in the storage unit 160, and the generated converted image data is stored in RAM or VRAM. And is stored in the storage unit 160 or the like as necessary.

表示制御部114は、表示部120を制御し、画像データ取得部111が取得した元画像データに基づいて、元画像を表示部120の表示パネルに表示させる他、変換画像を表示パネルに表示させる。また、表示制御部114は、領域設定部112が設定した第1領域と第2領域とに基づいて、元画像と変換画像の表示態様を制御する。特に、動的に変化する第1領域と第2領域とに基づいて、元画像と変換画像の表示態様を動的に制御する。この場合、表示制御部114は、第1領域を変換画像のこの領域に対応する部分とし、第2領域を元画像のこの領域に対応する部分とした第2画像を表示部に表示する。   The display control unit 114 controls the display unit 120 to display an original image on the display panel of the display unit 120 based on the original image data acquired by the image data acquisition unit 111 and to display a converted image on the display panel. . Further, the display control unit 114 controls the display mode of the original image and the converted image based on the first region and the second region set by the region setting unit 112. In particular, the display mode of the original image and the converted image is dynamically controlled based on the first area and the second area that dynamically change. In this case, the display control unit 114 displays a second image in which the first region is a portion corresponding to this region of the converted image and the second region is a portion corresponding to this region of the original image on the display unit.

この場合において、表示制御部114は、例えば、既知のオーサリングソフトなどで用いられているような演出効果のある表示処理により、例えば、アニメーション効果のあるテンプレート画像などを表示画像と合成して表示出力する。このようなテンプレート画像は予め作成されているものとし、記憶部160などに格納されているものとする。   In this case, the display control unit 114 synthesizes, for example, a template image having an animation effect with the display image and performs display output by display processing having an effect such as that used in known authoring software or the like. To do. It is assumed that such a template image is created in advance and stored in the storage unit 160 or the like.

なお、本実施形態では、制御部110(CPU)がプログラムを実行することによる論理的処理で上述した各機能が実現されるものとするが、これらの機能を、例えば、ASIC(Application Specific Integrated Circuit:特定用途向け集積回路)などのハードウェアによって構成してもよい。つまり、制御部110の一部をASICによって構成してもよい。例えば、表示制御部114の少なくとも一部は、いわゆる画像処理エンジンなどのような、制御部110のCPUなどとは独立した専用プロセッサによって構成されてもよく、いわゆるグラフィックボードなどのような、制御部110のCPUなどとは独立した専用プロセッサを有するモジュール等によって構成されてもよい。   In the present embodiment, each function described above is realized by a logical process performed by the control unit 110 (CPU) executing a program. For example, these functions may be realized by, for example, an ASIC (Application Specific Integrated Circuit). : An application specific integrated circuit) or the like. That is, a part of the control unit 110 may be configured by an ASIC. For example, at least a part of the display control unit 114 may be configured by a dedicated processor independent of the CPU of the control unit 110 such as a so-called image processing engine, or a control unit such as a so-called graphic board. It may be constituted by a module having a dedicated processor independent of the CPU 110.

このような構成のデジタルフォトフレーム100による動作例を以下に説明する。ここでは、デジタルフォトフレーム100による表示制御時に制御部110の各部によって実行される「タッチ連動表示処理」を、図4のフローチャートを参照して説明する。本実施形態にかかるデジタルフォトフレーム100には、取得した元画像を順次表示させる通常の表示モードの他に、センサ部130のタッチセンサへの手指接触と連動して変換画像の生成や表示切替をおこなうことのできるモード(以下、「タッチ連動モード」とする)が用意されているものとし、このタッチ連動モードが選択されたことを契機に「タッチ連動表示処理」が開始されるものとする。   An operation example of the digital photo frame 100 having such a configuration will be described below. Here, “touch-linked display processing” executed by each unit of the control unit 110 during display control by the digital photo frame 100 will be described with reference to the flowchart of FIG. 4. In the digital photo frame 100 according to the present embodiment, in addition to the normal display mode in which the acquired original images are sequentially displayed, conversion image generation and display switching are performed in conjunction with finger contact with the touch sensor of the sensor unit 130. It is assumed that a mode that can be performed (hereinafter, referred to as “touch-linked mode”) is prepared, and “touch-linked display processing” is started when the touch-linked mode is selected.

上述したように、本実施形態にかかるデジタルフォトフレーム100では、表示パネルの横方向に対応するタッチセンサが備えられており、本実施形態では、本実施形態にかかるデジタルフォトフレーム100は、このようなタッチセンサ上での左右方向の手指移動(スライド)に応じて、元画像と変換画像との表示切替や複数の変換画像の表示切替がおこなわれるように動作する。   As described above, in the digital photo frame 100 according to the present embodiment, the touch sensor corresponding to the horizontal direction of the display panel is provided. In the present embodiment, the digital photo frame 100 according to the present embodiment is like this. It operates so that the display switching between the original image and the converted image and the display switching of a plurality of converted images are performed in accordance with the finger movement (slide) in the horizontal direction on the touch sensor.

すなわち、手指のスライド方向によって表示制御をおこなうものであるが、本実施形態では、例えば、「元画像が表示されているときにタッチセンサ上で右から左へのスライドが検出された場合には、当該元画像についての変換画像へと表示を切り替える」、などのような連動動作が予め規定されているものとする。   That is, display control is performed according to the slide direction of the finger. In this embodiment, for example, “when a slide from right to left is detected on the touch sensor when the original image is displayed, Assume that an interlocking operation such as “switch the display to a converted image of the original image” is defined in advance.

なお、このような動作規定は、例えば、適用する画像処理の種類などとともに、使用者によって任意に設定できるものとし、設定内容が記憶部160に記録されているものとする。以下に説明する処理は、このような動作規定に基づいておこなわれるものであり、対応する動作規定は一例である。   It is assumed that such an operation rule can be arbitrarily set by the user together with the type of image processing to be applied, and the setting content is recorded in the storage unit 160. The processing described below is performed based on such an operation rule, and the corresponding operation rule is an example.

タッチ連動表示処理が開始されると、画像データ取得部111は、表示対象となる元画像の元画像データを取得してRAMに展開し、その旨を表示制御部114及び領域設定部112に通知する。表示制御部114は、RAMに展開された元画像データが表す元画像を表示部120に表示する(ステップS11)。ここで、本実施形態にかかるデジタルフォトフレーム100は、上述したように、レイヤ表示可能であるものとし、ステップS11では、表示制御部114は、画像データ取得部111が取得した元画像を、図7(a)に示すような、表示部120の表示画面において最も前面となるレイヤ(以下、「前面レイヤ」とする)に表示する。   When the touch-linked display process is started, the image data acquisition unit 111 acquires the original image data of the original image to be displayed and expands it in the RAM, and notifies the display control unit 114 and the region setting unit 112 of that fact. To do. The display control unit 114 displays the original image represented by the original image data expanded in the RAM on the display unit 120 (step S11). Here, it is assumed that the digital photo frame 100 according to the present embodiment can display a layer as described above. In step S11, the display control unit 114 displays the original image acquired by the image data acquisition unit 111 as a diagram. Displayed on the frontmost layer (hereinafter referred to as “front layer”) on the display screen of the display unit 120 as shown in FIG.

ここで、本実施形態では、図7(a)に示すような元画像と、当該元画像に対して画像処理をおこなうことで生成される変換画像とを例に以下説明する。この場合、ステップS11での表示処理により、図7(b)に示すように、元画像が表示部120の表示パネルに表示される。ここでは、元画像を前面レイヤとして表示しているので、図7(b)に示すように、元画像が可視的に表示されることになる。   Here, in the present embodiment, an original image as illustrated in FIG. 7A and a converted image generated by performing image processing on the original image will be described below as an example. In this case, the original image is displayed on the display panel of the display unit 120 as shown in FIG. Here, since the original image is displayed as the front layer, the original image is visibly displayed as shown in FIG. 7B.

また、後述する変換画像は、図7(a)に例示するような、元画像に画像処理(アートフィルタなど)を施すことで、被写体や構図などは同一であるが、例えば、色調やテクスチャ、輪郭線などを変化させたものである。本実施形態では、適宜、元画像と変換画像とをレイヤ表示させる際のデフォルト設定として、図7(a)に示すように、元画像が表示される前面レイヤの背面となるレイヤ(以下、「背面レイヤ」とする)に変換画像が表示されるものとする。   In addition, the converted image described later is subjected to image processing (such as an art filter) on the original image as illustrated in FIG. 7A, so that the subject and composition are the same. The contour line is changed. In the present embodiment, as a default setting when displaying the original image and the converted image in layers as appropriate, as shown in FIG. 7A, a layer (hereinafter referred to as “below”) that is the back side of the front layer on which the original image is displayed. It is assumed that the converted image is displayed on the “back layer”.

一方、処理開始と同時に、センサ制御部113がセンサ部130を制御することで、センサ部130を構成しているタッチセンサが励起され、センサ部130は、使用者等による手指接触による接触操作を検出できる状態となる。使用者等がタッチセンサに接触操作(タッチ)すると、これを検出したセンサ部130から検出信号がセンサ制御部113に入力される。センサ制御部113は、このような検出信号の入力の有無に基づいて、タッチセンサへのタッチが発生したか否かを判別する(ステップS12)。   On the other hand, simultaneously with the start of processing, the sensor control unit 113 controls the sensor unit 130 to excite the touch sensor that constitutes the sensor unit 130, and the sensor unit 130 performs a contact operation by finger contact by the user or the like. It will be in a state where it can be detected. When a user or the like performs a touch operation (touch) on the touch sensor, a detection signal is input to the sensor control unit 113 from the sensor unit 130 that detects the touch operation. The sensor control unit 113 determines whether or not a touch to the touch sensor has occurred based on whether or not such a detection signal is input (step S12).

センサ制御部113は、センサ部130からの検出信号に基づいて、タッチセンサへのタッチが発生したことを検出すると(ステップS12:Yes)、タッチセンサ上でのタッチ位置がどこであるかを判別する(ステップS13)。ここで、本実施形態では、図7(c)に示すように、センサ部130を構成しているタッチセンサ上に、例えば、長手方向に略3等分した3つの領域が設定されているものとする。これらの領域は、表示部120の表示パネルに表示されている画像を鑑賞するユーザ等から向かって左から、「左領域」、「中央領域」、「右領域」であるものとし、「左領域」には少なくともタッチセンサの左端部が含まれ、「中央領域」には少なくともタッチセンサの中央部が含まれ、「右領域」には少なくともタッチセンサの右端部が含まれているものとする。   When the sensor control unit 113 detects that the touch sensor is touched based on the detection signal from the sensor unit 130 (step S12: Yes), the sensor control unit 113 determines where the touch position on the touch sensor is. (Step S13). Here, in the present embodiment, as shown in FIG. 7C, on the touch sensor constituting the sensor unit 130, for example, three regions divided into approximately three equal parts in the longitudinal direction are set. And These areas are “left area”, “center area”, and “right area” from the left when viewed from the user or the like who views the image displayed on the display panel of the display unit 120. "Includes at least the left end portion of the touch sensor," center region "includes at least the center portion of the touch sensor, and" right region "includes at least the right end portion of the touch sensor.

センサ制御部113は、センサ部130から入力される検出信号が示すタッチを検出した位置(タッチ位置)に基づいて、使用者等によるタッチセンサでのタッチ位置が上記各領域のいずれであるかを判別する。   Based on the position (touch position) at which the touch indicated by the detection signal input from the sensor unit 130 is detected, the sensor control unit 113 determines which of the above areas is the touch position on the touch sensor by the user or the like. Determine.

タッチセンサ上でのタッチ位置が「右領域」である場合(ステップS14:Yes)、領域設定部112と表示制御部114とは、タッチセンサ上での手指移動(スライド)動作(タッチ位置の移動)に基づいて元画像と変換画像との表示変更をおこなうための「表示変更処理(1)」を実行する。   When the touch position on the touch sensor is the “right area” (step S14: Yes), the area setting unit 112 and the display control unit 114 perform a finger movement (slide) operation (touch position movement) on the touch sensor. ) To execute display change processing (1) for changing the display between the original image and the converted image.

ここで、本実施形態では、タッチ連動表示の際、右から左へのスライド動作の場合には、スライドに応じて元画像から変換画像に変化する動作規定がなされているものとする。この場合、タッチした手指を左方向にスライドさせる可能性が高い「右領域」に最初のタッチがなされたことを契機に、元画像から変換画像に変化させるための「表示変更処理(1)」が実行される。この「表示変更処理(1)」を、図5に示すフローチャートを参照して説明する。   Here, in this embodiment, in the case of a slide operation from right to left during touch-linked display, it is assumed that an operation regulation that changes from an original image to a converted image according to the slide is made. In this case, “display change process (1)” for changing from the original image to the converted image when the first touch is made in the “right region” where the touched finger is likely to slide leftward. Is executed. This “display change process (1)” will be described with reference to the flowchart shown in FIG.

処理が開始されると、表示制御部114は、直接もしくは画像データ取得部111を介して記憶部160などにアクセスし、ステップS11で表示した元画像から変換された変換画像が作成済であるか否かを判別する(ステップS101)。例えば、以前の処理、又は適宜のタイミング等によって、表示制御部114等によって元画像データから予め変換画像データが生成されて、記憶部160に記録されている場合があり、この場合には、記憶部160に変換画像データが記録されているため、ステップS101において変換画像が作成済みと判別されるものとする。また、この場合、変換画像データは、元画像データを用いて検索可能となるように、記憶部160に記録されるものとする。そして、表示制御部114は、画像データ取得部111が保持する元画像データに基づいて、変換画像データを検索し、変換画像が作成済みであるか(記録されているか)を判別する。   When the processing is started, the display control unit 114 accesses the storage unit 160 or the like directly or via the image data acquisition unit 111, and whether a converted image converted from the original image displayed in step S11 has been created. It is determined whether or not (step S101). For example, the converted image data may be generated from the original image data in advance by the display control unit 114 or the like and recorded in the storage unit 160 by the previous process or appropriate timing, and in this case, Since converted image data is recorded in the unit 160, it is determined in step S101 that a converted image has been created. In this case, the converted image data is recorded in the storage unit 160 so as to be searchable using the original image data. Then, the display control unit 114 searches the converted image data based on the original image data held by the image data acquisition unit 111 and determines whether the converted image has been created (recorded).

作成済である場合(ステップS101:Yes)、表示制御部114は、当該変換画像の変換画像データの取得を直接もしくは画像データ取得部111を介して行い、この変換画像データの変換画像を背面レイヤとして表示する。この場合、図7(a)に示すように、変換画像が背面レイヤに設定される(ステップS102)。この場合、元画像と変換画像とが同一座標系では同じ位置となるようRAMもしくはVRAM上で仮想的に積層配置するので、元画像は可視的に表示されるが、変換画像は不可視となる。なお、作成済の変換画像が存在しない場合(ステップS101:No)、ステップS102の動作はスキップされる。   If it has been created (step S101: Yes), the display control unit 114 acquires the converted image data of the converted image directly or via the image data acquiring unit 111, and uses the converted image of the converted image data as the back layer. Display as. In this case, as shown in FIG. 7A, the converted image is set to the back layer (step S102). In this case, since the original image and the converted image are virtually stacked on the RAM or VRAM so that they are in the same position in the same coordinate system, the original image is displayed visually, but the converted image is invisible. If there is no created converted image (step S101: No), the operation in step S102 is skipped.

この間もセンサ部130ではタッチセンサの動作が継続されており、検出に応じた検出信号が随時センサ制御部113に供給される。センサ制御部113は、このような検出信号の変化に基づいて、タッチセンサ上の手指がスライドしたか否かを判別する(ステップS103)。すなわち、最初に検出されたタッチ位置から、タッチ状態を維持したままタッチ位置に変化が生じた場合、タッチセンサ上の手指がスライドしたと判別する。   During this time, the operation of the touch sensor is continued in the sensor unit 130, and a detection signal corresponding to the detection is supplied to the sensor control unit 113 as needed. The sensor control unit 113 determines whether or not the finger on the touch sensor has slid based on such a change in the detection signal (step S103). That is, when the touch position changes from the first detected touch position while maintaining the touch state, it is determined that the finger on the touch sensor has slid.

タッチセンサ上の手指がスライドした場合(ステップS103:Yes)、センサ制御部113は、そのスライド方向が、使用者等からタッチセンサに向かって「左方向」であるか否かを判別し(ステップS104)、左方向へのスライドである場合には(ステップS104:Yes)、その移動量(スライド量)を示す情報を随時領域設定部112に通知する。つまり、領域設定部112は、センサ制御部113によって随時移動量を特定できる。   When the finger on the touch sensor slides (step S103: Yes), the sensor control unit 113 determines whether or not the slide direction is “leftward” from the user or the like toward the touch sensor (step S103). S104) If the slide is to the left (step S104: Yes), information indicating the movement amount (slide amount) is notified to the area setting unit 112 as needed. That is, the area setting unit 112 can specify the movement amount at any time by the sensor control unit 113.

領域設定部112は、センサ制御部113から通知されるスライド量を示す情報に基づいて、タッチパネル上でのスライド量(センサ制御部113が検出したタッチ位置)に応じて動的に規定される前面レイヤ上の領域(以下、「領域AR」とする)を設定する(ステップS105)。   The area setting unit 112 is dynamically defined based on the slide amount (touch position detected by the sensor control unit 113) on the touch panel based on information indicating the slide amount notified from the sensor control unit 113. An area on the layer (hereinafter referred to as “area AR”) is set (step S105).

ここでは、表示部120の表示パネル上での表示領域を、例えば、図8(a)に示すような、画面の左上頂部の座標を(Xmin ,Ymin)、画面の右下頂部の座標を(Xmax, Ymax)とする範囲とし、タッチセンサ上でのスライド量に対応する表示画面上での1次元方向(X方向=横方向)のドット数をMとした場合、座標(Xmax, Ymax)と、座標(Xmax-M, Ymin)を対角とする矩形領域が領域ARとして設定される。第1領域と第2領域との境界と、タッチセンサにおけるタッチ位置と、は、横方向において略同じ位置になるように領域ARが設定される。なお、この領域ARは、ここでは、上記の第1領域に相当する。また、領域ARの形状は、矩形以外の形状でもよく、適宜設定されているものとする。 Here, the display area on the display panel of the display unit 120 is, for example, the coordinates of the top left top of the screen (X min , Y min ) and the coordinates of the bottom right top of the screen as shown in FIG. (X max , Y max ) and the number of dots in the one-dimensional direction (X direction = horizontal direction) on the display screen corresponding to the slide amount on the touch sensor is M, the coordinates (X max , Y max ) and a rectangular area whose coordinates are (X max -M, Y min ) are set as the area AR. The area AR is set so that the boundary between the first area and the second area and the touch position on the touch sensor are substantially the same position in the horizontal direction. Here, the area AR corresponds to the first area described above. Further, the shape of the area AR may be a shape other than a rectangle, and is set as appropriate.

領域設定部112が領域ARを設定すると、表示制御部114は、当該領域ARでは変換画像が可視的に表示されるような表示処理をおこなう(ステップS106)。この場合の表示処理は、例えば、変換画像が作成済であるか否かによって異なる。   When the area setting unit 112 sets the area AR, the display control unit 114 performs a display process so that the converted image is visually displayed in the area AR (step S106). The display process in this case differs depending on, for example, whether the converted image has been created.

変換画像が作成済である場合、ステップS102で変換画像が背面レイヤに設定されているので、前面レイヤにおける領域ARを透過させる表示処理をおこなうことで、図8(b)に示すように、領域ARでは変換画像が可視的に表示される。この場合、領域ARに応じて受動的に規定される残りの領域(以下、「領域PR」とする。この領域PRが上記の第2領域に相当する。)には、元画像が可視的に表示されたままとなる。すなわち、図8(b)に示すように、元画像と変換画像とが部分的に合成された状態で表示される。   When the converted image has been created, since the converted image is set in the back layer in step S102, the display process for transmitting the area AR in the front layer is performed, so that the area as shown in FIG. In AR, the converted image is visibly displayed. In this case, the original image is visibly visible in the remaining region (hereinafter referred to as “region PR”, which corresponds to the second region) passively defined according to the region AR. It remains displayed. That is, as shown in FIG. 8B, the original image and the converted image are displayed in a partially synthesized state.

一方、変換画像が未作成である場合、領域設定部112は、設定した領域ARを表示制御部114に通知することで、表示制御部114は、前面レイヤに表示している元画像における領域ARの部分に画像処理を施すようにする。すなわち、画像データ取得部が保持している元画像データに基づいて、このデータの元画像に対し部分的に画像処理をおこなうことで、元画像のうち、領域ARに対応する部分が変換画像となる。この場合も、図8(b)に示すような、元画像と変換画像とが部分的に合成された表示となる。   On the other hand, when the converted image has not been created, the region setting unit 112 notifies the display control unit 114 of the set region AR, so that the display control unit 114 can display the region AR in the original image displayed on the front layer. Image processing is performed on the part of. That is, based on the original image data held by the image data acquisition unit, partial image processing is performed on the original image of this data, so that a portion corresponding to the area AR in the original image is converted into a converted image. Become. Also in this case, a display in which the original image and the converted image are partially combined as shown in FIG.

上記いずれの場合でも、表示制御部114は、画像データ取得部111が取得した画像データと領域設定手段112が設定した第1領域(領域AR)及び第2領域(領域PR)とに基づいて、画像データが表す第1画像の第1領域の画風を変更させた(第1領域に画像処理を施した)第2画像を生成することになる。ここでは、とくに、表示制御部114によって、第2画像を表す第2画像データが生成されることによって、第2画像が生成される。そして、表示制御部114によって第2画像が表示部120に表示されることになる。   In any of the above cases, the display control unit 114 is based on the image data acquired by the image data acquisition unit 111 and the first region (region AR) and the second region (region PR) set by the region setting unit 112. A second image in which the style of the first region of the first image represented by the image data is changed (image processing is performed on the first region) is generated. Here, in particular, the display control unit 114 generates second image data representing the second image, thereby generating the second image. Then, the second image is displayed on the display unit 120 by the display control unit 114.

ここで、センサ制御部113は、センサ部130からの検出信号に基づいて、タッチセンサ上での手指スライドが停止したか否かを判別し、表示制御部114は、スライドに連動した表示処理により変換画像の全面が可視的に表示されたか否かを判別する(ステップS107)。   Here, the sensor control unit 113 determines whether or not the finger slide on the touch sensor has stopped based on the detection signal from the sensor unit 130, and the display control unit 114 performs display processing in conjunction with the slide. It is determined whether or not the entire surface of the converted image is visibly displayed (step S107).

これらの条件のいずれもが生じなければ(ステップS107:No)、領域設定部112と表示制御部114とは、ステップS105〜ステップS106の動作を連続的におこなう。これにより、図8(b)に示すように、タッチセンサ上での右から左への手指スライドに合わせ、元画像の右端からの領域が変換画像に変化するように表示される。   If none of these conditions occurs (step S107: No), the region setting unit 112 and the display control unit 114 continuously perform the operations from step S105 to step S106. Thereby, as shown in FIG. 8B, the region from the right end of the original image is displayed so as to change into the converted image in accordance with the finger slide from right to left on the touch sensor.

この表示処理をおこなう際に、例えば、図8(c)に示すような、ページカールを模した装飾イメージなどを領域ARと領域PRの境界に合わせて合成することで、表示演出をおこなってもよい。このような表示演出の実施要否や合成させる画像の種類などは、予め使用者等により設定されているものとし、この設定にしたがって表示処理がなされるものとする。なお、このような表示演出によって、元画像と変換画像との境界が分かりやすくなる。   When this display process is performed, for example, a decoration effect imitating a page curl as shown in FIG. 8C is synthesized in accordance with the boundary between the area AR and the area PR, thereby providing a display effect. Good. The necessity of performing such display effects, the type of image to be combined, and the like are set in advance by a user or the like, and display processing is performed according to this setting. Such a display effect makes it easy to understand the boundary between the original image and the converted image.

一方、タッチセンサ上での手指スライドの停止もしくは変換画像全面の可視表示がなされたと判別された場合において(ステップS107:Yes)、その後さらにタッチセンサ上での右方向へのスライドが検出されると(ステップS108:Yes)、上記左方向へのスライドの場合と同様の処理により、領域設定部112が右方向へのスライド量に対応する一次元方向のドット数に基づいた領域ARを設定し(ステップS109)、表示制御部114は、当該領域ARが元画像で表示されるような表示処理を、右方向への手指スライドの停止や元画像全面の可視表示がなされるまで行う(ステップS110、ステップS111:No)。   On the other hand, when it is determined that the finger slide is stopped on the touch sensor or the entire conversion image is visible (step S107: Yes), and then a rightward slide on the touch sensor is further detected. (Step S108: Yes), the region setting unit 112 sets an area AR based on the number of dots in the one-dimensional direction corresponding to the amount of sliding in the right direction by the same processing as in the case of sliding in the left direction. In step S109, the display control unit 114 performs display processing such that the area AR is displayed as the original image until the finger slide is stopped in the right direction or the entire original image is visible (step S110). Step S111: No).

そして、右方向への手指スライドが停止したり、元画像の全面が可視表示されたりすると(ステップS111:Yes)、表示制御部114は、本処理を終了させる条件となる所定の終了イベントが発生したか否かを判別する(ステップS112)。ここでは、例えば、タッチセンサから手指が離れたことやタッチ連動モードが終了したことなどが終了イベントとなる。   When the finger slide in the right direction stops or the entire original image is visible (step S111: Yes), the display control unit 114 generates a predetermined end event as a condition for ending this process. It is determined whether or not it has been done (step S112). Here, for example, the end event is that the finger has left the touch sensor or the touch-linked mode has ended.

このような終了イベントが発生しなければ(ステップS112:No)、ステップS103以降の処理が繰り返し実行される。すなわち、元画像が表示された状態において、タッチセンサ上で左方向に手指をスライドさせると、そのスライドに対応して変換画像が表示されるようになり、右方向にスライドさせると、そのスライドに対応して元の表示に戻るような画面表示が連続的におこなわれる。このようにして、タッチ位置の移動に応じて、領域ARと領域PRとが動的に変化する。   If such an end event does not occur (step S112: No), the processes after step S103 are repeatedly executed. That is, when the finger is slid in the left direction on the touch sensor while the original image is displayed, the converted image is displayed corresponding to the slide, and when the finger is slid in the right direction, the slide is displayed. Correspondingly, the screen display that returns to the original display is continuously performed. In this way, the area AR and the area PR dynamically change according to the movement of the touch position.

なお、タッチセンサの右領域上でタッチ検出されたことを契機に開始された本処理において、タッチセンサ上での手指スライドが検出されない場合(ステップS103:No)、手指をスライドさせない場合の表示処理となる「表示変更処理(2)」(ステップS200)のステップS203〜ステップS207(詳細後述)が実行されることになる(ステップS113)。   In addition, in this process started when touch detection is performed on the right area of the touch sensor, when a finger slide on the touch sensor is not detected (step S103: No), display processing when the finger is not slid Steps S203 to S207 (details will be described later) of the “display change process (2)” (step S200) are executed (step S113).

また、本処理は、左方向へのスライドとなる可能性の高い右領域でのタッチが検出されたことを契機に開始されるものであるが、この状態で右方向へのスライドが検出された場合(ステップS104:No)、本処理にかかる表示処理が既に実行されているのであれば(ステップS114:Yes)、右方向のスライドに応じた表示処理であるステップS109〜ステップS111の動作がおこなわれる。   This process is started when a touch in the right area that is likely to slide to the left is detected. In this state, a slide to the right is detected. In the case (step S104: No), if the display process related to this process has already been executed (step S114: Yes), the operations of steps S109 to S111, which are display processes corresponding to the slide in the right direction, are performed. It is.

一方、処理を開始してから最初に検出されたスライドの方向が右方向である場合(ステップS114:No)は、表示制御時の右方向スライドに対応した「通常の表示切替処理」(ステップS300、詳細後述)が実行されることになる。   On the other hand, when the direction of the slide detected first after starting the process is the right direction (step S114: No), “normal display switching process” (step S300) corresponding to the right direction slide at the time of display control. , Details will be described later).

ここでは、左方向のスライドとなる可能性が高い右領域でのタッチが検出されると、スライドが検出される前に変換画像の用意がされる場合がある(ステップS102)。この場合、スライドの検出と同時に表示切替をおこなうことができるとともに、スライド方向が想定とは異なる場合であっても、当該スライド方向について規定された動作が実行され、使用者にストレスをかけない表示制御をおこなうことができる。   Here, when a touch in the right region that is likely to be a leftward slide is detected, a converted image may be prepared before the slide is detected (step S102). In this case, the display can be switched simultaneously with the detection of the slide, and even if the slide direction is different from the expected one, the operation specified for the slide direction is executed, and the display does not stress the user. Control can be performed.

「表示変更処理(1)」についての処理終了イベントの発生(ステップS112:Yes)などによって本処理を終了すると、「タッチ連動表示処理」(図4)のフローに戻る。   When this process ends due to the occurrence of a process end event for “display change process (1)” (step S112: Yes) or the like, the flow returns to the “touch-linked display process” (FIG. 4).

「表示変更処理(1)」からリターンした「タッチ連動表示処理」では、「タッチ連動表示処理」を終了させる条件となる所定の終了イベントが発生したか否かが判別される(ステップS16)。ここでは、例えば、タッチ連動モードが終了したことやデジタルフォトフレーム100の電源オフなどが終了イベントとなる。   In the “touch-linked display process” returned from the “display change process (1)”, it is determined whether or not a predetermined end event that is a condition for ending the “touch-linked display process” has occurred (step S16). Here, for example, the end event is that the touch-linked mode ends or the digital photo frame 100 is turned off.

本処理にかかる終了イベントが発生しなければ(ステップS16:No)、ステップS12以降の処理がおこなわれる。以下、検出されたタッチの位置が「右領域」以外である場合の動作例を説明する。   If the end event related to this process does not occur (step S16: No), the process after step S12 is performed. Hereinafter, an operation example when the detected touch position is other than the “right region” will be described.

まず、タッチ位置が「中央領域」であった場合の動作を例示する。本実施形態では、タッチセンサ上の1点をタッチし続けた場合、そのとき表示されている元画像を変換画像に切り替えた上で、当該変換画像にかかる画像処理のパラメータを、タッチ継続時間に応じて変化させて表示する動作が規定されているものとする。この場合において、推奨されるタッチ位置がタッチセンサの「中央領域」であるものとする。   First, the operation when the touch position is the “center area” is illustrated. In this embodiment, when one point on the touch sensor is continuously touched, the original image displayed at that time is switched to the converted image, and the parameter of the image processing related to the converted image is set to the touch duration time. It is assumed that the operation of changing and displaying in response is defined. In this case, it is assumed that the recommended touch position is the “center area” of the touch sensor.

このような動作規定に基づき、検出されたタッチの位置が「中央領域」である場合(ステップS15:YES)、上記表示処理をおこなうための「表示変更処理(2)」が実行される(ステップS200)。この「表示変更処理(2)」を、図6に示すフローチャートを参照して説明する。   If the detected touch position is the “center area” based on such an operation rule (step S15: YES), the “display change process (2)” for performing the display process is executed (step S15). S200). This “display change process (2)” will be described with reference to the flowchart shown in FIG.

処理が開始されると、センサ制御部113は、センサ部130から入力される検出信号に基づいて、タッチセンサ上での手指スライドがおこなわれていないか判別する(ステップS201)。ここで、本処理開始後に手指スライドが検出された場合(ステップS201:No)、スライドに応じて表示処理をおこなう「表示変更処理(1)」(図5)のステップS104〜ステップS112が実行される(ステップS202)。すなわち、タッチ位置から想定される操作ではない場合でも、検出された動作に応じた表示処理がおこなわれる。   When the process is started, the sensor control unit 113 determines whether or not the finger slide on the touch sensor is performed based on the detection signal input from the sensor unit 130 (step S201). Here, when a finger slide is detected after the start of this processing (step S201: No), steps S104 to S112 of “display change processing (1)” (FIG. 5) for performing display processing according to the slide are executed. (Step S202). That is, even when the operation is not assumed from the touch position, display processing corresponding to the detected operation is performed.

一方、タッチした手指が静止しているのであれば(ステップS201:Yes)、表示制御部114は、直接もしくは画像データ取得部111を介して記憶部160などにアクセスし、ステップS11で表示した元画像から変換された変換画像が作成済であるか否かを判別する(ステップS203)。これらの処理は、ステップS103の処理と同様であるので詳細な説明を省略する。   On the other hand, if the touched finger is stationary (step S201: Yes), the display control unit 114 accesses the storage unit 160 or the like directly or via the image data acquisition unit 111, and displays the source displayed in step S11. It is determined whether or not a converted image converted from the image has been created (step S203). Since these processes are the same as the process of step S103, detailed description is abbreviate | omitted.

作成済である場合(ステップS203:Yes)、表示制御部114は、当該変換画像の変換画像データの取得を直接もしくは画像データ取得部111を介して行い、この変換画像データの変換画像を前面レイヤとして表示部120に表示する。すなわち、デフォルトでは元画像が前面レイヤで可視表示されているが、本処理においては、当該元画像についての変換画像に切り替えられることになる(ステップS204)。なお、記憶部160などに格納されている変換画像の画像データには、当該変換画像の生成に用いられた画像処理で適用されたパラメータを示す情報が含まれているものとする。   When it has been created (step S203: Yes), the display control unit 114 acquires the converted image data of the converted image directly or via the image data acquiring unit 111, and uses the converted image of the converted image data as the front layer. Is displayed on the display unit 120. That is, by default, the original image is visibly displayed on the front layer, but in this process, the original image is switched to the converted image (step S204). Note that the image data of the converted image stored in the storage unit 160 or the like includes information indicating parameters applied in the image processing used for generating the converted image.

一方、表示中の元画像についての変換画像が作成済でない場合(ステップS203:No)、表示制御部114は、画像処理を当該元画像に適用することで変換画像を生成し(つまり、画像データ取得部111が保持する元画像データに基づいて、変換画像データを生成し)、生成した変換画像を表示部120に表示する(つまり、生成した変換画像データに基づいて変換画像を表示部120に表示する)。これにより、可視表示される画像が元画像から変換画像に切り替わる(ステップS205)。この場合において、表示制御部114は、例えば、実行する画像処理の適用度合(画風の変更の度合い、つまり、画風の変化度)が最も低くなるパラメータを適用して変換画像を生成する。   On the other hand, when the converted image for the original image being displayed has not been created (step S203: No), the display control unit 114 generates a converted image by applying image processing to the original image (that is, image data). The converted image data is generated based on the original image data held by the acquisition unit 111, and the generated converted image is displayed on the display unit 120 (that is, the converted image is displayed on the display unit 120 based on the generated converted image data). indicate). As a result, the visible image is switched from the original image to the converted image (step S205). In this case, for example, the display control unit 114 generates a converted image by applying a parameter that provides the lowest degree of application of image processing to be executed (the degree of change in the style, that is, the degree of change in the style).

本実施形態では、画像処理の適用度合が最も弱くなるパラメータを「初期値」とし、パラメータが初期値の画像処理によって生成された変換画像を、以下「変換画像A」とする。また、変換画像Aよりも画像処理の適用度合が1段階強められた変換画像を「変換画像B」とし、変換画像Bよりも画像処理の適用度合がさらに1段階強められた変換画像を「変換画像C」とする。   In the present embodiment, the parameter with the weakest application degree of image processing is referred to as “initial value”, and the converted image generated by image processing with the parameter being the initial value is referred to as “converted image A” hereinafter. Also, a converted image in which the degree of application of image processing is increased by one step compared to the converted image A is referred to as “converted image B”, and a converted image in which the degree of application of image processing is further increased by one step than in the converted image B Image C ”.

このようにして、表示部120の表示パネルにおいて変換画像が可視表示されると、表示制御部114は、当該表示中の変換画像について現在適用されているパラメータを異ならせた同じ種類の画像処理を適用する(ステップS206)。この動作を、タッチセンサでのタッチ位置の移動又はタッチの終了(センサ制御部113による接触位置の検出等によって分かる。)、もしくは、変更可能なパラメータ範囲の終了が検出されるまで実行することで(ステップS207:No)、タッチセンサ上で手指タッチがおこなわれている間、例えば、図9に示すように、変換画像Aから変換画像Cへと徐々に変化するよう表示される。なお、このとき、表示制御部114は、ステップS207の処理でNoと判別する毎に所定時間待機することによって、変換画像Aから変換画像Cへと徐々に変化するよう表示される。   In this way, when the converted image is visibly displayed on the display panel of the display unit 120, the display control unit 114 performs the same type of image processing with different parameters currently applied to the converted image being displayed. Apply (step S206). By executing this operation until the touch position is moved by the touch sensor or the touch is ended (detected by detecting the contact position by the sensor control unit 113 or the like) or the end of the changeable parameter range is detected. (Step S207: No), while the finger touch is performed on the touch sensor, for example, as shown in FIG. 9, the display is displayed so as to gradually change from the converted image A to the converted image C. At this time, the display control unit 114 is displayed so as to gradually change from the converted image A to the converted image C by waiting for a predetermined time each time it is determined No in the process of step S207.

ここでは、一例として、画像処理の適用度合が最も弱くなるパラメータを初期値とし、適用度合を強めていく場合を示したが、画像処理の適用度合が最も強くなるパラメータを初期値とし、適用度合を弱めていくように表示させてもよい。   Here, as an example, the parameter in which the image processing application level is the weakest is set as the initial value and the application level is increased. However, the parameter in which the image processing application level is the strongest is set as the initial value, and the application level is May be displayed so as to weaken.

また、変換画像について画風の種類を順次異ならせて(例えば、油絵風、ちぎり絵風、水墨画風の順に画風の種類を変化させ)、変換画像の画風を変更してもよい。この場合には、繰り返し行われるステップS206において、表示制御部114は、異なる種類の画風の変換画像データを画像データ取得部111が保持する元画像データに基づいて順次生成し(変換画像を生成し)、生成した変換画像データが表す変換画像を表示部120に表示しても良い。なお、変換する画風の種類の順序については予めユーザの指定等によって設定されているものとする。なお、この場合の必要なデータ等は、記憶部160に記録され、表示制御部114によって使用されるものとする。   Alternatively, the style of the converted image may be changed by sequentially changing the style of the converted image (for example, by changing the style of the style in the order of oil painting style, tearing style, and ink style). In this case, in step S206 that is repeatedly performed, the display control unit 114 sequentially generates converted image data of different types of styles based on the original image data held by the image data acquisition unit 111 (generates a converted image). ), A converted image represented by the generated converted image data may be displayed on the display unit 120. It is assumed that the order of the types of styles to be converted is set in advance by user designation or the like. Note that necessary data and the like in this case are recorded in the storage unit 160 and used by the display control unit 114.

そして、センサ部130からの検出信号に基づいてセンサ制御部113がタッチ終了を判別したり、表示制御部114による画像処理のパラメータが適用可能範囲の上限もしくは下限となった場合(ステップS207:Yes)、本処理を終了して「タッチ連動表示処理」(図4)のフローに戻る。   Then, when the sensor control unit 113 determines the end of the touch based on the detection signal from the sensor unit 130, or the image processing parameter by the display control unit 114 reaches the upper limit or the lower limit of the applicable range (step S207: Yes). ), This process is terminated, and the flow returns to the “touch-linked display process” (FIG. 4).

なお、上記動作例においては、パラメータ範囲の終了によって処理を終了するものとしたが、パラメータの上限もしくは下限に達した後も手指タッチが継続されている場合、例えば、パラメータの増減を逆転させて表示を継続するようにしてもよい。   In the above operation example, the processing is ended by the end of the parameter range. However, when the finger touch is continued even after reaching the upper limit or lower limit of the parameter, for example, the increase / decrease of the parameter is reversed. The display may be continued.

「表示変更処理(2)」からリターンした「タッチ連動表示処理」のフローでは、「タッチ連動表示処理」にかかる終了イベントが発生するまで、ステップS12以降の処理がおこなわれる(ステップS16:No)。   In the “touch-linked display process” flow returned from “display change process (2)”, the processes after step S12 are performed until the end event related to “touch-linked display process” occurs (step S16: No). .

次に、検出された手指タッチの位置が「左領域」であった場合(ステップS15:No)の動作例を説明する。この場合、「通常の表示切替処理」を実行する(ステップS300)。本実施形態では、デフォルトの元画像が表示されている状態で、タッチセンサ上での手指タッチを右方向にスライドさせた場合、元画像を他の元画像に切り替える動作規定が設定されているものとする。すなわち、通常のデジタルフォトフレームで一般的におこなわれているような、表示写真を次々と切り替える動作がおこなわれる。   Next, an operation example when the detected finger touch position is the “left region” (step S15: No) will be described. In this case, “normal display switching processing” is executed (step S300). In this embodiment, when the default original image is displayed, when a finger touch on the touch sensor is slid to the right, an operation rule for switching the original image to another original image is set. And That is, an operation of switching display photographs one after another as is generally performed in a normal digital photo frame is performed.

この場合、最初のタッチ位置が「左領域」であれば右方向へのスライドがおこなわれる可能性が高いため、このような場合(ステップS15:No)に「通常の表示切替処理」がおこなわれる。   In this case, if the first touch position is the “left region”, there is a high possibility of sliding in the right direction. Therefore, in such a case (step S15: No), the “normal display switching process” is performed. .

なお、上述した「表示変更処理(1)」(図5)は、左方向にスライドする可能性の高い右領域でのタッチ位置が検出された場合に実行されるが、この場合であっても、最初に検出されたスライドが右方向であれば(ステップS114:No)、通常の表示切替処理を実行することで、元画像の切替表示がおこなわれる。   The above-described “display change process (1)” (FIG. 5) is executed when a touch position in the right region that is highly likely to slide in the left direction is detected. If the slide detected first is in the right direction (step S114: No), the original image is switched and displayed by executing a normal display switching process.

以上のような各処理がおこなわれた後の「タッチ連動表示処理」(図4)では、当該処理にかかる終了イベントの発生により処理を終了する(ステップS16:Yes)。   In the “touch-linked display process” (FIG. 4) after the above processes are performed, the process ends when an end event related to the process occurs (step S <b> 16: Yes).

以上のように、本実施形態にかかるデジタルフォトフレーム100において上述した各処理が実行されることで、デジタルフォトフレームにおいて表示する写真画像にアートフィルタなどの画像処理を適用して表示する際に、元画像と変換画像との比較、あるいは、変換画像における画像処理の適用度合の比較、などを直感的な操作でおこなうことができ、使用者等の嗜好にあった画像選択などを容易におこなうことができる。   As described above, when each process described above is executed in the digital photo frame 100 according to the present embodiment, when applying and displaying image processing such as an art filter on a photographic image displayed in the digital photo frame, Compare the original image and the converted image, or compare the degree of application of image processing in the converted image, etc. by intuitive operation, and easily select the image that suits the user's preference Can do.

上記実施形態では、上記の動作によって、センサ制御部113は、ユーザからの接触操作を検出するためのセンサ部130によって、センサ部130におけるユーザが接触操作した位置である接触位置を検出する。また、画像データ取得部111は、上記の動作によって、元画像を表す元画像データを取得する。また、領域設定部112は、画像データ取得部111が取得した(ここでは保持している)元画像データが表す元画像における領域ARと領域PRとを、センサ制御部113が検出したタッチ位置に応じて設定する。また、表示制御部114は、画像データ取得部111が取得した画像データと領域設定部112が設定した領域AR及び領域PRとに基づいて、画像データが表す第1画像の領域ARの画風を変更させた(領域ARに画像処理を施した)第2画像を生成し、生成した第2画像を表示部120に表示する。そして、領域ARと領域PRとは、所定方向(ここでは、画面上の横方向、タッチセンサの長尺方向)に沿って隣り合っており、領域設定部112は、センサ制御部113によって検出したタッチ位置が移動すると領域ARと領域PRとの境界をタッチ位置の移動に応じて(ここでは、タッチ移動の方向と平行して)移動させる。   In the embodiment described above, the sensor control unit 113 detects a contact position that is a position where the user performs a contact operation on the sensor unit 130 by the sensor unit 130 for detecting a contact operation from the user by the above operation. Further, the image data acquisition unit 111 acquires original image data representing the original image by the above operation. Further, the area setting unit 112 sets the area AR and the area PR in the original image represented by the original image data acquired (stored here) by the image data acquisition unit 111 as the touch positions detected by the sensor control unit 113. Set accordingly. Further, the display control unit 114 changes the style of the area AR of the first image represented by the image data based on the image data acquired by the image data acquisition unit 111 and the area AR and the area PR set by the area setting unit 112. The generated second image (the image processed in the area AR) is generated, and the generated second image is displayed on the display unit 120. The area AR and the area PR are adjacent to each other along a predetermined direction (here, the horizontal direction on the screen, the long direction of the touch sensor), and the area setting unit 112 has detected by the sensor control unit 113. When the touch position moves, the boundary between the area AR and the area PR is moved according to the movement of the touch position (here, in parallel with the direction of the touch movement).

本実施形態では、上記構成によって、変換画像の領域と元画像の領域とが1つの画像について分割して表示され、これら領域の境界が接触操作による接触位置に応じて変化することになる。つまり、表示部120に表示された第2画像における領域ARと領域PRとの境界が接触操作によって変更されるので、ユーザは、元の画像と画像処理後の画像(変換画像)とをユーザの操作に連動して直感的に見比べることができる。   In the present embodiment, with the above configuration, the converted image area and the original image area are divided and displayed for one image, and the boundary of these areas changes according to the contact position by the contact operation. That is, since the boundary between the region AR and the region PR in the second image displayed on the display unit 120 is changed by the contact operation, the user can change the original image and the image after image processing (converted image) to the user's image. You can compare intuitively in conjunction with the operation.

また、センサ部130は、少なくとも、表示部120の表示画面と少なくとも1方向(ここでは、横方向(長尺方向))で平行する1以上のタッチセンサを含む。これによって、領域ARと領域PRとの境界の移動方向をタッチセンサの長尺方向と平行にすることができ、ユーザは、元の画像と画像処理後の画像(変換画像)とをユーザの操作(指の位置)に連動して直感的に見比べることができる。特にここでは、指の位置が領域ARと領域PRとの境界と縦方向において同じ位置にあるため、ユーザは境界と指との位置関係を把握しやすい。また、タッチセンサは、デジタルフォトフレーム100の筐体に形成されるので、表示部120の表示画面が接触操作によって汚れない。   The sensor unit 130 includes at least one touch sensor that is parallel to at least one direction (here, the horizontal direction (long direction)) of the display screen of the display unit 120. Thereby, the moving direction of the boundary between the region AR and the region PR can be made parallel to the long direction of the touch sensor, and the user can operate the original image and the image after image processing (converted image) by the user's operation. Intuitive comparison can be made in conjunction with (finger position). In particular, here, since the position of the finger is at the same position in the vertical direction as the boundary between the area AR and the area PR, the user can easily grasp the positional relationship between the boundary and the finger. Further, since the touch sensor is formed on the housing of the digital photo frame 100, the display screen of the display unit 120 is not soiled by the contact operation.

さらに、上記では、タッチセンサのスライド操作によって、他の操作はいらずに、自動的に画風の変更(画像処理)が行われる。   Further, in the above, the style change (image processing) is automatically performed by the slide operation of the touch sensor without any other operation.

(実施形態2)
上記実施形態1で例示した各処理を基本動作とし、これらの処理にかかる対象画像の組み合わせや手指スライドの方向と動作との対応などを異ならせることで、タッチセンサを利用した種々の表示処理をおこなうことができる。
(Embodiment 2)
Each process illustrated in the first embodiment is a basic operation, and various display processes using a touch sensor are performed by changing the combination of target images and the correspondence between the direction of the finger slide and the operation. Can be done.

例えば、上記実施形態1では、タッチセンサ上でのタッチがスライドしない場合に、変換画像における画像処理の適用度合を徐々に変化させる動作(「表示変更処理(2)」)を例示したが、このような動作を「表示変更処理(1)」で例示した動作と組み合わせてもよい。   For example, in Embodiment 1 described above, the operation (“display change process (2)”) of gradually changing the application degree of the image processing in the converted image when the touch on the touch sensor does not slide is illustrated. Such an operation may be combined with the operation exemplified in the “display change process (1)”.

例えば、図10に示すように、タッチセンサ上での手指スライドに応じて動的に規定される領域ARに変換画像Aを表示する動作をおこなった後に、手指スライドが静止した場合(つまり、所定の期間以上、タッチ位置が同じ位置に留まっている場合)、そのときの領域ARに表示している変換画像を、変換画像Aから変換画像Cへと徐々に(所定の時間間隔毎に)変化するよう表示してもよい。これによって、変換画像の画風の変更の度合いが徐々に変化する。このようにタッチ位置が変化しない期間に応じて、領域ARの画風の変更の度合いを変化させることによって、ユーザは画風の変化について確認することができる。   For example, as illustrated in FIG. 10, when the finger slide is stopped after performing the operation of displaying the converted image A in the area AR that is dynamically defined according to the finger slide on the touch sensor (that is, predetermined When the touch position stays at the same position for a period of time), the converted image displayed in the area AR at that time gradually changes from the converted image A to the converted image C (at predetermined time intervals). May be displayed. This gradually changes the degree of change in the style of the converted image. Thus, the user can confirm the change in the style by changing the degree of the change in the style of the area AR according to the period during which the touch position does not change.

また、このように変換画像を徐々に変化させる方法は任意であり、例えば、図11に示すように、元画像が表示されている状態における左方向への手指スライドに基づく領域ARに変換画像Aを表示する。そして、右方向への手指スライドが検出された場合には、当該スライドに基づく領域ARに変換画像Bを表示する。同様にして、その後の左方向の手指スライドでは、領域ARに変換画像Cを表示する。すなわち、タッチセンサ上での手指スライドの往復(タッチ位置の往復移動)に応じて、元画像から変換画像A、変換画像Aから変換画像B、変換画像Bから変換画像Cへと変換画像が変化するように、つまり、変換画像の画風の変更の度合いが徐々に変化する画像処理をすることもできる。これによって、ユーザは画風の変化についてスライド動作等で確認することができる。   Further, the method of gradually changing the converted image in this way is arbitrary. For example, as shown in FIG. 11, the converted image A is converted into an area AR based on the left finger slide in the state where the original image is displayed. Is displayed. When a finger slide in the right direction is detected, the converted image B is displayed in the area AR based on the slide. Similarly, in the subsequent finger slide in the left direction, the converted image C is displayed in the area AR. That is, the conversion image changes from the original image to the conversion image A, from the conversion image A to the conversion image B, and from the conversion image B to the conversion image C according to the reciprocation of the finger slide on the touch sensor (reciprocation of the touch position). In other words, it is possible to perform image processing in which the degree of change in the style of the converted image gradually changes. Thereby, the user can confirm the change in the style by a slide operation or the like.

なお、上記同様、変換画像について画風の種類を順次異ならせて(例えば、油絵風、ちぎり絵風、水墨画風の順に画風を変化させ)、変換画像の画風の種類を変更してもよい。これによって、ユーザは画風の表現方法の変更について確認することができる。又は、ユーザは画風の表現方法の変更についてスライド動作等で確認することができる。   As described above, the style of the converted image may be changed by sequentially changing the style of the converted image (for example, by changing the style in the order of oil painting style, tearing style, and ink style). As a result, the user can confirm the change in the style of expression. Alternatively, the user can confirm the change of the expression method of the style by a slide operation or the like.

(実施形態3)
上記実施形態では、表示パネル(表示部120)の近傍に1つのタッチセンサ(センサ部130)を備えたデジタルフォトフレーム100(図1)の例を示したが、構成するタッチセンサの数や位置は任意であり、例えば、図12(a)に示すような外観構成となるデジタルフォトフレーム100とすることもできる。
(Embodiment 3)
In the above embodiment, an example of the digital photo frame 100 (FIG. 1) provided with one touch sensor (sensor unit 130) in the vicinity of the display panel (display unit 120) is shown. Is optional, and for example, a digital photo frame 100 having an appearance configuration as shown in FIG.

すなわち、図12(a)に示すように、長手方向で表示パネル(表示部120)と平行する2つのタッチセンサAおよびタッチセンサB(センサ部130)を、表示パネルの上辺および下辺それぞれの近傍に配置したデジタルフォトフレーム100としてもよい。   That is, as shown in FIG. 12A, two touch sensors A and B (sensor unit 130) parallel to the display panel (display unit 120) in the longitudinal direction are arranged in the vicinity of the upper and lower sides of the display panel. It may be a digital photo frame 100 arranged in the frame.

この場合、いずれのタッチセンサにタッチされたかによって、上記実施形態1で例示した各処理の割当を変えることができ、より多様な表示処理を実現する操作を容易におこなうことができる。   In this case, the allocation of each process exemplified in the first embodiment can be changed depending on which touch sensor is touched, and operations for realizing more various display processes can be easily performed.

例えば、上側のタッチセンサAには、元画像についての表示処理操作を割り当て、下側のタッチセンサBには、変換画像についての表示処理操作を割り当てることができる。これにより、例えば、上側にタッチセンサAで検出される手指スライドの方向に応じて、表示対象となっている複数の元画像の順序にしたがい、現在表示されている元画像の前後の元画像に表示切替する。そして、元画像が表示された状態で下側のタッチセンサBへのタッチが検出されると、現在表示されている元画像についての変換画像に切り替わり、さらに下側のタッチセンサB上で手指スライドが検出された場合には、スライド方向に応じて変換画像についての表示切替(例えば、表示対象となっている元画像の表示順序に対応して、前後の変換画像が表示されるような表示切替)がおこなわれるよう表示制御することができる。   For example, a display processing operation for the original image can be assigned to the upper touch sensor A, and a display processing operation for the converted image can be assigned to the lower touch sensor B. Thereby, for example, according to the order of the plurality of original images to be displayed according to the direction of the finger slide detected by the touch sensor A on the upper side, the original images before and after the currently displayed original image are displayed. Switch display. When a touch on the lower touch sensor B is detected in a state where the original image is displayed, the screen is switched to a converted image of the currently displayed original image, and a finger slide is further performed on the lower touch sensor B. Is detected, the display switching for the converted image is performed according to the slide direction (for example, the display switching for displaying the previous and next converted images corresponding to the display order of the original image to be displayed). Display control can be performed.

あるいは、例えば、2本の手指を同時に使用することで、領域ARと領域PRを設定するようにしてもよい。すなわち、図12(b)に示すように、タッチセンサA上でのタッチ位置と、タッチセンサB上でのタッチ位置とを結んだ直線によって表示画面を2つの領域に分割し、一方を領域AR、他方を領域PRとする。この場合、各タッチセンサ上でのタッチ位置の変化に応じて、領域の割合や形状が変化するが、このような場合であっても、順次設定される領域に応じた画像処理をおこなうことで、元画像と変換画像、あるいは、複数の変換画像が合成された画面が動的に変化するように表示することができる。   Alternatively, for example, the area AR and the area PR may be set by using two fingers simultaneously. That is, as shown in FIG. 12B, the display screen is divided into two areas by a straight line connecting the touch position on the touch sensor A and the touch position on the touch sensor B, and one of the areas is an area AR. , And let the other be a region PR. In this case, the ratio and shape of the area change according to the change of the touch position on each touch sensor, but even in such a case, image processing corresponding to the sequentially set areas can be performed. The original image and the converted image, or the screen on which the plurality of converted images are combined can be displayed so as to change dynamically.

(実施形態4)
上記各実施形態では、表示パネルの近傍にタッチセンサが配置される構成を例示したが、表示パネル(表示部120)がタッチセンサ(センサ部130)の機能を備える、いわゆるタッチパネル(表示部120+センサ部130)によってデジタルフォトフレーム100を構成してもよい。
(Embodiment 4)
In each of the above embodiments, the configuration in which the touch sensor is disposed in the vicinity of the display panel is illustrated, but a so-called touch panel (display unit 120 + sensor) in which the display panel (display unit 120) has the function of the touch sensor (sensor unit 130). Part 130) may constitute the digital photo frame 100.

この場合、タッチパネル上でのタッチやスライドに応じて上述した各処理をおこなうことができる(特に、上記と同様に、タッチパネルの領域を「左領域」、「中央領域」、「右領域」に区切り、接触位置がどの領域にあるかで表示変更処理(1)及び(2)、表示切替処理のうちのいずれかを行う処理ができる)が、さらに、接触面積を検出することで処理方法を異ならせることができる。例えば、図13(a)に示すように、タッチパネルで検出された接触面積に基づいて、手指全体でタッチパネル上をスライドさせたことが検出された場合(接触面積が大きい場合)には、スライドしている手指の位置に対応して領域ARと領域PRとの境界を設定する。一方、タッチパネル上の接触面積に基づいて、指先でタッチパネル上をスライドさせたことが検出された場合(接触面積が小さい場合)には、例えば、元画像同士の表示切替(現在表示している元画像の前後の元画像への切替)をおこなうようにすることができる。つまり、接触面積の大小に応じて、第2画像を表示するか、表示切り替えを行うかの二通りの処理が行われても良い。ここで、接触面積が大きいとは、接触面積の大きさが所定の基準を満たす(例えば、所定の閾値を超える)場合をいい、接触面積が小さいとは、接触面積の大きさが所定の基準を満たさない(例えば、所定の閾値以下である)場合をいう。   In this case, each process described above can be performed according to touch or slide on the touch panel (particularly, the touch panel area is divided into “left area”, “center area”, and “right area” as described above). Depending on which region the contact position is in, the display change processing (1) and (2) or display switching processing can be performed). Further, if the processing method is different by detecting the contact area Can be made. For example, as shown in FIG. 13A, when it is detected that the entire finger is slid on the touch panel based on the contact area detected by the touch panel (when the contact area is large), the slide is performed. The boundary between the area AR and the area PR is set in accordance with the position of the finger that is present. On the other hand, when it is detected that the fingertip has slid on the touch panel based on the contact area on the touch panel (when the contact area is small), for example, display switching between the original images (the currently displayed source) Switching to the original image before and after the image) can be performed. That is, two types of processing of displaying the second image or switching the display may be performed according to the size of the contact area. Here, the large contact area means that the size of the contact area satisfies a predetermined standard (for example, exceeds a predetermined threshold), and the small contact area means that the size of the contact area is a predetermined standard. (For example, below a predetermined threshold).

センサ制御部113は、上記のように、センサ部130への接触操作による接触面積を検出し、表示制御部114は、接触面積の大きさが所定の基準を満たす場合に、第2画像を表示部120に表示する処理を行う。また、接触面積の大きさが所定の基準を満たさない場合、画像データ取得部111は、現在表示部120に表示している画像についての画像データ(現在保持している画像データ)とは異なる他の画像データ(元画像データ)を取得する。そして、表示制御部114は、画像データ取得部111が新たに取得した元画像データに基づいて、この元画像データが表す元画像を表示部120に表示する。これによって、表示制御部114は、表示部120にすでに表示されている画像を他の画像に切り替える処理を行う。以上のような処理によって、似たような操作で、表第2画像を表示するか、表示切り替えを行うかの二通りの処理が行われるので、ユーザの利便性が高まる。   As described above, the sensor control unit 113 detects the contact area by the contact operation to the sensor unit 130, and the display control unit 114 displays the second image when the size of the contact area satisfies a predetermined criterion. Processing to be displayed on the unit 120 is performed. Further, when the size of the contact area does not satisfy a predetermined criterion, the image data acquisition unit 111 is different from the image data (image data currently held) about the image currently displayed on the display unit 120. Image data (original image data) is acquired. The display control unit 114 displays the original image represented by the original image data on the display unit 120 based on the original image data newly acquired by the image data acquisition unit 111. Thereby, the display control unit 114 performs a process of switching an image already displayed on the display unit 120 to another image. With the above processing, the user's convenience is improved because the two processes of displaying the table second image or switching the display are performed by a similar operation.

また、いわゆるマルチタッチに対応したタッチパネルであれば、画面上で指定した2点によって領域を指定することができる。これにより、例えば、図13(b)に示すように、画面上での手指タッチによって指定された2点間を対角線とした矩形の領域を領域ARとして設定することができる。   In addition, in the case of a touch panel that supports so-called multi-touch, an area can be designated by two points designated on the screen. Thereby, for example, as shown in FIG. 13B, a rectangular area having a diagonal line between two points designated by finger touch on the screen can be set as the area AR.

このような手指タッチで指定される領域ARは、指定された2点で規定される矩形領域とすることができる他、例えば、タッチパネル上での手指移動の軌跡を示す形状としてもよい。この場合、タッチパネル上でなぞった部分のみが変換画像となるように表示制御することができる。   The area AR designated by such a finger touch can be a rectangular area defined by the designated two points, or may have a shape indicating a trajectory of finger movement on the touch panel, for example. In this case, display control can be performed so that only the part traced on the touch panel becomes a converted image.

すなわち、表示パネル(表示部120)に表示されている画像への直接的なタッチにより、元画像と変換画像の比較や画像処理効果の確認などをより直感的におこなうことができる。   That is, by directly touching the image displayed on the display panel (display unit 120), comparison between the original image and the converted image, confirmation of the image processing effect, and the like can be performed more intuitively.

(変形例)
上記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
(Modification)
The said embodiment is an example and the application range of this invention is not restricted to this. That is, various applications are possible, and all embodiments are included in the scope of the present invention.

例えば、上記実施形態で例示したタッチセンサの検出方式、形状やサイズ、配置位置などは一例であり、上述した各処理にかかる動作を実現できる検出がおこなえるのであれば任意のタッチセンサとすることができる。   For example, the detection method, shape, size, arrangement position, and the like of the touch sensor exemplified in the above embodiment are merely examples, and any touch sensor may be used as long as it can perform detection capable of realizing the operations related to each process described above. it can.

また、上記実施形態で例示した「表示変更処理(2)」(図6)では、タッチ時間に応じて画像処理のパラメータを異ならせるものとしたが、例えば、実施形態1のように、タッチ強度(接触操作における押圧力)を検出できるタッチセンサを用いているのであれば、検出されたタッチ強度に応じて画像処理のパラメータを変更してもよい。また、このような処理は、実施形態2においても適用できる。また、当然、タッチ強度に応じて画風の種類を変更させてもよい。   Further, in the “display change process (2)” (FIG. 6) illustrated in the above embodiment, the image processing parameters are varied according to the touch time. If a touch sensor capable of detecting (pressing force in the contact operation) is used, the image processing parameters may be changed according to the detected touch intensity. Such processing can also be applied to the second embodiment. Naturally, the style of the style may be changed according to the touch intensity.

また、上記実施形態では、タッチセンサ上での手指スライドの方向に応じて処理をおこなう例を示したが、方向だけでなく、例えば、スライドのスピードを検出し、検出されたスピードに応じた処理をおこなうようにしてもよい。   Moreover, although the example which performs a process according to the direction of the finger slide on a touch sensor was shown in the said embodiment, not only a direction but the speed of a slide is detected and the process according to the detected speed is shown, for example. You may make it perform.

上記のようなセンサ部によって検知する接触操作の内容(上記の押圧力、スライドのスピード等)に応じて、変換画像の画風の変更の度合いを変化させるか又は画風の種類の変更することによっても、ユーザは画風の変化又は画風の表現方法の変更について確認することができる。又は、ユーザは画風の変化又は画風の表現方法の変更についてスライド動作等で確認することができる。   Depending on the content of the contact operation detected by the sensor unit as described above (the above-mentioned pressing force, slide speed, etc.), the degree of change in the style of the converted image or the type of style can be changed. The user can confirm the change of the style or the change of the style of expression. Alternatively, the user can check the change in the style or the change in the style of expression by a slide operation or the like.

なお、上記実施形態では、タッチセンサが手指によるタッチを検出するものとしたが、これに限られるものではなく、例えば、スタイラスペンなどを用いたタッチを検出することで上記各処理をおこなってもよい。   In the above-described embodiment, the touch sensor detects a touch with a finger. However, the present invention is not limited to this. For example, even if each process is performed by detecting a touch using a stylus pen or the like. Good.

また、上記では、画像処理が画風を変更する処理である場合を説明したが、画像処理は、明るさ補正、赤目補正等の補正処理等の他の画像処理であってもよい。この場合、画像処理の度合いの性質は上記同様である。画像処理の度合いは、ここでは、例えば、補正処理等で用いられるパラメータ(明るさを規定する数値等からなる)等になる。   In the above description, the case where the image processing is processing for changing the style has been described. However, the image processing may be other image processing such as correction processing such as brightness correction and red-eye correction. In this case, the nature of the degree of image processing is the same as described above. Here, the degree of image processing is, for example, a parameter (consisting of a numerical value that defines brightness) or the like used in correction processing or the like.

なお、上記実施形態のデジタルフォトフレーム100と同様の機能や構成を予め備えた表示制御装置によって本発明を実現できることはもとより、既存の表示制御装置(デジタルフォトフレームなど)にプログラムを適用することで、本発明にかかる表示制御装置として機能させることもできる。この場合、上記実施形態で例示したデジタルフォトフレーム100が有するタッチセンサ(センサ部130)と同様の構成を備えた表示制御装置のコンピュータ(CPUなどの制御部)に、上述した制御部110の機能と同様の機能を実現させるためのプログラムを実行させることで、本発明にかかる表示制御装置として機能させることができる。   It should be noted that the present invention can be realized by a display control device having the same functions and configurations as those of the digital photo frame 100 of the above embodiment, and also by applying a program to an existing display control device (such as a digital photo frame). The display control device according to the present invention can be made to function. In this case, the function of the control unit 110 described above is added to a computer (a control unit such as a CPU) of the display control device having the same configuration as the touch sensor (sensor unit 130) included in the digital photo frame 100 illustrated in the above embodiment. By executing a program for realizing the same function as the above, it is possible to function as a display control apparatus according to the present invention.

なお、上記実施形態では、表示制御装置の例として、デジタルフォトフレームを示したが、上記実施形態で例示したタッチセンサ(センサ部130)と同様の構成を備えているものであれば表示制御装置の形態は任意であり、例えば、デジタルカメラやパーソナルコンピュータなどで本発明にかかる表示制御装置を実現することもできる。   In the above embodiment, a digital photo frame is shown as an example of the display control device, but any display control device having the same configuration as the touch sensor (sensor unit 130) illustrated in the above embodiment may be used. The display control apparatus according to the present invention can be realized by, for example, a digital camera or a personal computer.

いずれの場合でも、プログラムを適用することで、既存の装置を本発明にかかる表示制御装置として機能させることができる。このようなプログラムの適用方法は任意であり、例えば、CD−ROM、メモリカード、RAM、ROM等の記憶媒体に格納して適用できる他、例えば、インターネットなどの通信媒体を介して適用することもできる。   In any case, by applying the program, it is possible to make an existing device function as the display control device according to the present invention. The application method of such a program is arbitrary. For example, the program can be applied by being stored in a storage medium such as a CD-ROM, a memory card, a RAM, and a ROM, or can be applied via a communication medium such as the Internet. it can.

100…デジタルフォトフレーム、110…制御部、111…画像データ取得部、112…領域設定部、113…センサ制御部、114…表示制御部、120…表示部、130…センサ部、140…操作部、150…I/F部、160…記憶部、AR…領域、PR…領域 DESCRIPTION OF SYMBOLS 100 ... Digital photo frame 110 ... Control part 111 ... Image data acquisition part 112 ... Area setting part 113 ... Sensor control part 114 ... Display control part 120 ... Display part 130 ... Sensor part 140 ... Operation part , 150 ... I / F section, 160 ... storage section, AR ... area, PR ... area

Claims (8)

ユーザからの接触操作を検出するためのセンサ部によって、前記センサ部における前記ユーザが接触操作した位置である接触位置を検出するセンサ制御手段と、
第1画像を表す画像データを取得する画像データ取得手段と、
前記画像データ取得手段が取得した前記画像データが表す前記第1画像における第1領域と第2領域とを、前記センサ制御手段が検出した前記接触位置に応じて設定する領域設定手段と、
前記画像データ取得手段が取得した前記画像データと前記領域設定手段が設定した前記第1領域及び前記第2領域とに基づいて、前記画像データが表す前記第1画像の前記第1領域に画像処理を施した第2画像を生成し、生成した前記第2画像を前記表示部に表示する表示制御手段と、を備え、
前記第1領域と前記第2領域とは、所定方向に沿って隣り合っており、
前記領域設定手段は、前記センサ制御手段によって検出した接触位置が移動すると前記第1領域と前記第2領域との境界を前記接触位置の移動に応じて移動させる、
ことを特徴とする表示制御装置。
Sensor control means for detecting a contact position, which is a position where the user performs a contact operation in the sensor unit, with a sensor unit for detecting a contact operation from a user;
Image data acquisition means for acquiring image data representing the first image;
Area setting means for setting the first area and the second area in the first image represented by the image data acquired by the image data acquisition means according to the contact position detected by the sensor control means;
Based on the image data acquired by the image data acquisition means and the first area and the second area set by the area setting means, image processing is performed on the first area of the first image represented by the image data. Display control means for generating a second image subjected to the above and displaying the generated second image on the display unit,
The first region and the second region are adjacent to each other along a predetermined direction,
The area setting means moves the boundary between the first area and the second area according to the movement of the contact position when the contact position detected by the sensor control means moves.
A display control device characterized by that.
前記センサ部は、少なくとも、前記表示部の表示画面と少なくとも1方向で平行する1以上のタッチセンサを含む、
ことを特徴とする請求項1に記載の表示制御装置。
The sensor unit includes at least one touch sensor parallel to at least one direction of the display screen of the display unit,
The display control apparatus according to claim 1.
前記表示制御手段は、前記センサ制御手段が検出した前記接触位置の往復移動に応じて、前記第1領域に対する前記画像処理の度合いを変化させるか又は前記第1領域に対する前記画像処理の種類を変更させる、
ことを特徴とする請求項1又は2に記載の表示制御装置。
The display control means changes the degree of the image processing for the first area or changes the type of the image processing for the first area according to the reciprocal movement of the contact position detected by the sensor control means. Let
The display control apparatus according to claim 1, wherein the display control apparatus is a display control apparatus.
前記表示制御手段は、前記センサ制御手段が検出した前記接触位置が変化しない期間に応じて、前記第1領域に対する前記画像処理の度合いを変化させるか又は前記第1領域に対する前記画像処理の種類を変更させる、
ことを特徴とする請求項1乃至3のいずれか1項に記載の表示制御装置。
The display control means changes the degree of the image processing for the first area or changes the type of the image processing for the first area according to a period during which the contact position detected by the sensor control means does not change. To change,
The display control device according to claim 1, wherein the display control device is a display control device.
前記センサ制御手段は、前記センサ部によって接触操作の内容をさらに検出し、
前記表示制御手段は、前記センサ制御手段が検出した前記接触操作の内容に応じて、前記第1領域に対する前記画像処理の度合いを変化させるか又は前記第1領域に対する前記画像処理の種類を変更させる、
ことを特徴とする請求項1乃至4のいずれか1項に記載の表示制御装置。
The sensor control means further detects the content of the contact operation by the sensor unit,
The display control unit changes the degree of the image processing for the first region or changes the type of the image processing for the first region according to the content of the contact operation detected by the sensor control unit. ,
The display control apparatus according to claim 1, wherein the display control apparatus is a display control apparatus.
前記接触操作の内容は、前記接触操作における押圧力である、
ことを特徴とする請求項5に記載の表示制御装置。
The content of the contact operation is a pressing force in the contact operation.
The display control apparatus according to claim 5.
前記センサ制御手段は、前記センサ部への前記接触操作による接触面積を検出し、
前記画像データ取得手段は、取得した前記画像データとは異なる他の画像データを取得し、
前記表示制御手段は、前記接触面積の大きさが所定の基準を満たす場合に、前記第2画像を前記表示部に表示する処理を行い、前記接触面積の大きさが所定の基準を満たさない場合に、前記画像データ取得手段が取得した前記他の画像データに基づいて、前記他の画像データが表す他の画像を前記表示部に表示することで、前記表示部にすでに表示されている画像を前記他の画像に切り替える処理を行う、
ことを特徴とする請求項1乃至6のいずれか1項に記載の表示制御装置。
The sensor control means detects a contact area by the contact operation to the sensor unit,
The image data acquisition means acquires other image data different from the acquired image data;
The display control means performs a process of displaying the second image on the display unit when the size of the contact area satisfies a predetermined criterion, and the size of the contact area does not satisfy the predetermined criterion. In addition, based on the other image data acquired by the image data acquisition unit, another image represented by the other image data is displayed on the display unit, so that an image already displayed on the display unit is displayed. A process of switching to the other image,
The display control apparatus according to claim 1, wherein the display control apparatus is a display control apparatus.
コンピュータに、
ユーザからの接触操作を検出するためのセンサ部によって、前記センサ部における前記ユーザが接触操作した位置である接触位置を検出するセンサ制御手段と、
第1画像を表す画像データを取得する画像データ取得手段と、
前記画像データ取得手段が取得した前記画像データが表す前記第1画像における第1領域と第2領域とを、前記センサ制御手段が検出した前記接触位置に応じて設定する領域設定手段と、
前記画像データ取得手段が取得した前記画像データと前記領域設定手段が設定した前記第1領域及び前記第2領域とに基づいて、前記画像データが表す前記第1画像の前記第1領域に画像処理を施した第2画像を生成し、生成した前記第2画像を前記表示部に表示する表示制御手段と、として機能させ、
前記第1領域と前記第2領域とは、所定方向に沿って隣り合っており、
前記領域設定手段は、前記センサ制御手段によって検出した接触位置が移動すると前記第1領域と前記第2領域との境界を前記接触位置の移動に応じて移動させる、
ことを特徴とする表示制御プログラム。
On the computer,
Sensor control means for detecting a contact position, which is a position where the user performs a contact operation in the sensor unit, with a sensor unit for detecting a contact operation from a user;
Image data acquisition means for acquiring image data representing the first image;
Area setting means for setting the first area and the second area in the first image represented by the image data acquired by the image data acquisition means according to the contact position detected by the sensor control means;
Based on the image data acquired by the image data acquisition means and the first area and the second area set by the area setting means, image processing is performed on the first area of the first image represented by the image data. And a display control means for displaying the generated second image on the display unit,
The first region and the second region are adjacent to each other along a predetermined direction,
The area setting means moves the boundary between the first area and the second area according to the movement of the contact position when the contact position detected by the sensor control means moves.
A display control program characterized by that.
JP2010015582A 2010-01-27 2010-01-27 Device and program for controlling display Pending JP2011154533A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010015582A JP2011154533A (en) 2010-01-27 2010-01-27 Device and program for controlling display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010015582A JP2011154533A (en) 2010-01-27 2010-01-27 Device and program for controlling display

Publications (1)

Publication Number Publication Date
JP2011154533A true JP2011154533A (en) 2011-08-11

Family

ID=44540446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010015582A Pending JP2011154533A (en) 2010-01-27 2010-01-27 Device and program for controlling display

Country Status (1)

Country Link
JP (1) JP2011154533A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097798A (en) * 2011-10-27 2013-05-20 Samsung Electronics Co Ltd System and method for identifying type of input to mobile device with touch panel
JP2015024337A (en) * 2014-11-07 2015-02-05 株式会社ユニバーサルエンターテインメント Game machine
JP2015088085A (en) * 2013-11-01 2015-05-07 シャープ株式会社 Display device and display method
JP2016052092A (en) * 2014-09-02 2016-04-11 カシオ計算機株式会社 Imaging device, image processing device, display control device, image correction method and program
JP2016186824A (en) * 2016-08-02 2016-10-27 カシオ計算機株式会社 Information processing apparatus and program
CN107731198A (en) * 2016-08-12 2018-02-23 精工爱普生株式会社 The control method of display device and display device
JP2020174237A (en) * 2019-04-08 2020-10-22 凸版印刷株式会社 Print reproduction color simulation system, print reproduction color simulation method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097798A (en) * 2011-10-27 2013-05-20 Samsung Electronics Co Ltd System and method for identifying type of input to mobile device with touch panel
US9495095B2 (en) 2011-10-27 2016-11-15 Samsung Electronics Co., Ltd. System and method for identifying inputs input to mobile device with touch panel
JP2015088085A (en) * 2013-11-01 2015-05-07 シャープ株式会社 Display device and display method
JP2016052092A (en) * 2014-09-02 2016-04-11 カシオ計算機株式会社 Imaging device, image processing device, display control device, image correction method and program
JP2015024337A (en) * 2014-11-07 2015-02-05 株式会社ユニバーサルエンターテインメント Game machine
JP2016186824A (en) * 2016-08-02 2016-10-27 カシオ計算機株式会社 Information processing apparatus and program
CN107731198A (en) * 2016-08-12 2018-02-23 精工爱普生株式会社 The control method of display device and display device
CN107731198B (en) * 2016-08-12 2022-07-01 精工爱普生株式会社 Display device and control method of display device
JP2020174237A (en) * 2019-04-08 2020-10-22 凸版印刷株式会社 Print reproduction color simulation system, print reproduction color simulation method, and program
JP7238559B2 (en) 2019-04-08 2023-03-14 凸版印刷株式会社 PRINT REPRODUCTION COLOR SIMULATION SYSTEM, PRINT REPRODUCTION COLOR SIMULATION METHOD AND PROGRAM

Similar Documents

Publication Publication Date Title
US9076085B2 (en) Image processing apparatus, image processing apparatus control method, and storage medium
JP2011154533A (en) Device and program for controlling display
JP5658552B2 (en) Display control apparatus, control method therefor, program, and recording medium
WO2019020052A1 (en) Photography method and mobile terminal
US9900450B2 (en) Image forming apparatus, method of controlling the same, and recording medium
US11435870B2 (en) Input/output controller and input/output control program
CN102148917B (en) Display processing apparatus
US20210208749A1 (en) Non-transitory computer readable medium storing program for adding new icons to a display
JP6004756B2 (en) Display control apparatus and control method thereof
CN104243749B (en) The control method of image processing system and image processing system
JP6210474B2 (en) Photo sticker creating apparatus, photo sticker creating apparatus control method, and photo sticker creating apparatus control program
US9195311B2 (en) Imaging device, imaging method, and program with flick gesture to acquire an image
JP2012213019A (en) Image processing apparatus, image processing method, and program
JP5639384B2 (en) Display device and program
US20170038953A1 (en) Display apparatus and display method for displaying main data and data related to that main data, and a memory medium
EP2735955B1 (en) Method and system for selecting a digital object on a user interface screen
JP6700749B2 (en) Information processing apparatus, control method of information processing apparatus, and program
JP6437299B2 (en) Information processing apparatus, information processing program, and information processing method
US10921704B2 (en) Method for controlling projection content and electronic device
JP2007168156A (en) Printer and its display method
JP4648217B2 (en) Image device, method of selecting processed image
KR20140016822A (en) Information terminal having touch screens, control method therefor, and storage medium
JP5402764B2 (en) Display device, display method, and program
JP5491466B2 (en) Editing apparatus control method, program, and photographing apparatus
JP2018194801A (en) Display, display method, and program