JP2011154533A - Device and program for controlling display - Google Patents
Device and program for controlling display Download PDFInfo
- Publication number
- JP2011154533A JP2011154533A JP2010015582A JP2010015582A JP2011154533A JP 2011154533 A JP2011154533 A JP 2011154533A JP 2010015582 A JP2010015582 A JP 2010015582A JP 2010015582 A JP2010015582 A JP 2010015582A JP 2011154533 A JP2011154533 A JP 2011154533A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- display
- image data
- display control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、表示制御装置、および、表示制御プログラムに関する。 The present invention relates to a display control device and a display control program.
デジタルカメラの普及により、デジタルデータで記録された写真画像を得ることが一般的となっている。従来のフィルムカメラによる撮影の場合、プリントを伴うことが多かったが、デジタル方式の場合、撮影したデジタルカメラで閲覧したり、画像データを取り込んだパーソナルコンピュータなどで閲覧したりすることができるため、写真の楽しみ方にも変化が生じている。 With the widespread use of digital cameras, it has become common to obtain photographic images recorded with digital data. In the case of shooting with a conventional film camera, it was often accompanied by a print, but in the case of a digital system, it can be viewed with a digital camera that has shot, or with a personal computer that has captured image data, There are also changes in the way photos are enjoyed.
このような状況において、デジタル写真でも従来のプリント写真と同様の楽しみ方ができるようにするため、いわゆるデジタルフォトフレームが実現され普及している(例えば、特許文献1)。 Under such circumstances, so-called digital photo frames are realized and popularized so that digital photographs can be enjoyed in the same way as conventional printed photographs (for example, Patent Document 1).
このようなデジタルフォトフレームでは、デジタル方式の特性を活かし、従来のプリント写真を掲出するフォトフレームではできなかった複数の写真をスライドショー形式で表示するなどの多様な表示態様を実現することができるとともに、取得した写真画像に画像処理を加えることで、例えば、元の写真をベースとしつつも趣の異なる写真画像(例えば、絵画調など)等を生成して表示することもできる。 Such a digital photo frame can realize various display modes such as displaying a plurality of photos in a slide show format, which was not possible with a photo frame displaying a conventional print photo, utilizing the characteristics of the digital system. By applying image processing to the acquired photographic image, for example, it is possible to generate and display a photographic image (for example, a painting style) having a different taste while using the original photo as a base.
しかしながら、上記技術では、元の画像と画像処理後の画像とをユーザの操作に連動してユーザが直感的に比べることができなかった。 However, in the above technique, the user cannot intuitively compare the original image and the image after image processing in conjunction with the user's operation.
本発明は、元の画像と画像処理後の画像とをユーザの操作に連動してユーザが直感的に比べることができる表示制御装置、および、表示制御プログラムを提供することを目的とする。 An object of the present invention is to provide a display control device and a display control program that allow a user to intuitively compare an original image and an image after image processing in conjunction with a user operation.
上記目的を達成するため、本発明の第1の観点にかかる表示制御装置は、
ユーザからの接触操作を検出するためのセンサ部によって、前記センサ部における前記ユーザが接触操作した位置である接触位置を検出するセンサ制御手段と、
第1画像を表す画像データを取得する画像データ取得手段と、
前記画像データ取得手段が取得した前記画像データが表す前記第1画像における第1領域と第2領域とを、前記センサ制御手段が検出した前記接触位置に応じて設定する領域設定手段と、
前記画像データ取得手段が取得した前記画像データと前記領域設定手段が設定した前記第1領域及び前記第2領域とに基づいて、前記画像データが表す前記第1画像の前記第1領域に画像処理を施した第2画像を生成し、生成した前記第2画像を前記表示部に表示する表示制御手段と、を備え、
前記第1領域と前記第2領域とは、所定方向に沿って隣り合っており、
前記領域設定手段は、前記センサ制御手段によって検出した接触位置が移動すると前記第1領域と前記第2領域との境界を前記接触位置の移動に応じて移動させる。
In order to achieve the above object, a display control apparatus according to the first aspect of the present invention provides:
Sensor control means for detecting a contact position, which is a position where the user performs a contact operation in the sensor unit, with a sensor unit for detecting a contact operation from a user;
Image data acquisition means for acquiring image data representing the first image;
Area setting means for setting the first area and the second area in the first image represented by the image data acquired by the image data acquisition means according to the contact position detected by the sensor control means;
Based on the image data acquired by the image data acquisition means and the first area and the second area set by the area setting means, image processing is performed on the first area of the first image represented by the image data. Display control means for generating a second image subjected to the above and displaying the generated second image on the display unit,
The first region and the second region are adjacent to each other along a predetermined direction,
The area setting means moves the boundary between the first area and the second area according to the movement of the contact position when the contact position detected by the sensor control means moves.
上記目的を達成するため、本発明の第2の観点にかかる表示制御プログラムは、
コンピュータに、
ユーザからの接触操作を検出するためのセンサ部によって、前記センサ部における前記ユーザが接触操作した位置である接触位置を検出するセンサ制御手段と、
第1画像を表す画像データを取得する画像データ取得手段と、
前記画像データ取得手段が取得した前記画像データが表す前記第1画像における第1領域と第2領域とを、前記センサ制御手段が検出した前記接触位置に応じて設定する領域設定手段と、
前記画像データ取得手段が取得した前記画像データと前記領域設定手段が設定した前記第1領域及び前記第2領域とに基づいて、前記画像データが表す前記第1画像の前記第1領域に画像処理を施した第2画像を生成し、生成した前記第2画像を前記表示部に表示する表示制御手段と、として機能させ、
前記第1領域と前記第2領域とは、所定方向に沿って隣り合っており、
前記領域設定手段は、前記センサ制御手段によって検出した接触位置が移動すると前記第1領域と前記第2領域との境界を前記接触位置の移動に応じて移動させる。
In order to achieve the above object, a display control program according to the second aspect of the present invention provides:
On the computer,
Sensor control means for detecting a contact position, which is a position where the user performs a contact operation in the sensor unit, with a sensor unit for detecting a contact operation from a user;
Image data acquisition means for acquiring image data representing the first image;
Area setting means for setting the first area and the second area in the first image represented by the image data acquired by the image data acquisition means according to the contact position detected by the sensor control means;
Based on the image data acquired by the image data acquisition means and the first area and the second area set by the area setting means, image processing is performed on the first area of the first image represented by the image data. And a display control means for displaying the generated second image on the display unit,
The first region and the second region are adjacent to each other along a predetermined direction,
The area setting means moves the boundary between the first area and the second area according to the movement of the contact position when the contact position detected by the sensor control means moves.
本発明によれば、元の画像と画像処理後の画像とをユーザの操作に連動してユーザが直感的に比べることができる表示制御装置、および、表示制御プログラムを提供することができる。 According to the present invention, it is possible to provide a display control device and a display control program that allow a user to intuitively compare an original image and an image after image processing in conjunction with a user operation.
(実施形態1)
本発明にかかる実施形態を、図面を参照して以下に説明する。本実施形態では、本発明にかかる表示制御装置を、図1に示すようなデジタルフォトフレーム100によって実現した場合を例示する。本実施形態にかかるデジタルフォトフレーム100は、図1に示すように、フォトフレーム(写真立て)を模した筐体に表示パネル(表示部120)を構成し、デジタルデータによる写真画像などを表示する機能を有するデジタルフォトフレームであり、このようなデジタルフォトフレームの一般的な構成に加え、手指の接触などを感知するタッチセンサ(センサ部130)が構成される。
(Embodiment 1)
Embodiments according to the present invention will be described below with reference to the drawings. In the present embodiment, a case where the display control apparatus according to the present invention is realized by a
このようなデジタルフォトフレーム100のハードウェア構成を、図2を参照して説明する。
The hardware configuration of the
図示するように、本実施形態にかかるデジタルフォトフレーム100は、制御部110、表示部120、センサ部130、操作部140、I/F部150、記憶部160、などから構成されている。
As illustrated, the
制御部110は、例えば、CPU(Central Processing Unit:中央演算処理装置)などのプロセッサや、RAM(Random Access Memory)などの主記憶装置(メモリ)、VRAM(Video RAM)などの表示用記憶装置、などから構成され、デジタルフォトフレーム100の各部を制御することで、デジタルフォトフレーム100の主要な動作(後述するタッチ連動表示処理)が実現される。特に、本実施形態では、CPUが記憶部160に記録された表示制御プログラムを実行することで、制御部110が行う後述するタッチ連動表示処理(制御部110が備える、後述の画像データ取得部111と領域設定部112と表示制御部114とセンサ制御部113とが実際に行うタッチ連動表示処理)を実行される。
The
表示部120は、例えば、液晶表示パネルや有機EL(Electro-Luminescence)パネルなどの表示パネルや表示パネルを駆動させるドライバ回路などから構成され、制御部110の制御のもと、制御部110が生成等した画像データに基づく画像などを表示する。
The
センサ部130は、例えば、静電容量方式のタッチセンサなどから構成され、デジタルフォトフレーム100の使用者による手指の接触による操作(接触操作)を検出するためのものである。センサ部130は、タッチ位置(座標で表現される。)、接触の内容(例えば、押圧力)などに応じた検出信号を生成して制御部110に供給する。センサ部130を構成するタッチセンサは、例えば、図1に示すような略矩形の形状であり、長手方向で表示パネルと平行するように表示パネルの近傍に配置されているものとする。また、タッチセンサと表示パネルの長手方向のサイズは略同一であるものとし、タッチセンサ上でのタッチ位置(接触位置)と表示パネル上のx方向(横方向)の座標とが、必要十分な精度で対応しているものとする。
The
操作部140は、例えば、デジタルフォトフレーム100の外面上に構成されている各種ボタンなどによって構成され、デジタルフォトフレーム100の使用者(ユーザ)による操作に応じた操作信号を生成して制御部110に供給する。操作部140が操作されることにより、例えば、デジタルフォトフレーム100の電源オン・オフや動作モードの設定、表示させる画像の選択、などがおこなわれる。
The
I/F部150は、外部装置とのインタフェース(I/F)であり、例えば、画像データが保存されたメモリカードなどの外部記憶媒体が着脱されるカードスロットや、デジタルカメラやパーソナルコンピュータなどから転送される画像データを取得するためのインタフェース(例えば、USB(Universal Serial Bus)ポートなど)、などから構成される。
The I /
記憶部160は、例えば、ROM(Read Only Memory)やフラッシュメモリなどの記憶装置から構成され、デジタルフォトフレーム100の動作に必要なプログラムやデータなどを格納する。本実施形態では、制御部110などがタッチ連動表示処理を実行するのに必要な、表示制御プログラム、パラメータ、演算式等が記憶部160に記録されているものとする。
The
以上が本実施形態にかかるデジタルフォトフレーム100を構成している主要なハードウェア構成となるが、デジタルフォトフレームとしての基本機能や種々の付加機能に用いられる構成は必要に応じて備えられているものとする。
The above is the main hardware configuration constituting the
本実施形態では、以上のような構成のデジタルフォトフレーム100で、例えば、デジタルカメラなどで撮影した写真画像を表示させる場合を想定する。この場合において、本実施形態にかかるデジタルフォトフレーム100では、取得した写真画像(以下、「元画像」とする)の画像データを加工することで、同じ写真画像からこの写真画像とは異なる画風に変換した画像(以下、「変換画像」とする)を生成して表示可能であるものとする。
In the present embodiment, it is assumed that a photographic image taken with a digital camera or the like is displayed on the
制御部110(特に後述の表示制御部114)は、ラスタ形式の画像データを扱うグラフィックソフト(いわゆるペイント系ソフト(例えば、フォトショップ(PHOTOSHOP:登録商標))で用いられているフィルタ(アートフィルタ)などと同様の効果となる画像処理をおこなうことで、取得した元画像についての種々のパラメータを変更し、例えば、絵画調(油絵風、ちぎり絵風、水墨画風等)の画像などの変換画像を生成する。この場合の画像処理の種類は任意であり、実行可能な画像処理によって実現できる種々の画像変換(例えば、モノクロ調への変換、セピア調への変換、ソフトフォーカス調への変換、ビビッド調への変換、モザイク調への変換、ミニチュア写真風への変換、など)が適用されうる。なお、上記のパラメータは、画像処理を施すときに使用される各種数値である。このようなパラメータは、画像処理の性質を表す数値であり、例えば、明るさ、画像変換の細かさ、なめらかさ、テクスチャを規定する値等、画像処理の種類(変更する画風の種類)によって、様々なもので構成される。ここでは、このパラメータによって画風の変更の度合い(画像処理の度合い)が表現される。ここでは、パラメータの上下に応じて、画像処理の度合いも上下する。また、パラメータが大きければ、つまり、画像処理の度合いが大きければ、画像処理の前後の画像の変化が大きくなる。つまり、画像処理の度合い(ここでは、パラメータ)とは、例えば、画像処理の前後の画像を比べたときの変化の度合いである。前記のパラメータは、例えば、描画パラメータであり、例えば、フォトショップ等で使用される画像変換のパラメータ等である。 The control unit 110 (particularly, the display control unit 114 described later) is a filter (art filter) used in graphic software (so-called paint software (for example, Photoshop (registered trademark)) that handles raster-format image data. By performing image processing that has the same effect as the above, various parameters of the acquired original image are changed, and for example, a converted image such as a painting-like image (oil painting style, tearing style, ink painting style, etc.) The type of image processing in this case is arbitrary, and various image conversions that can be realized by executable image processing (for example, conversion to monochrome tone, conversion to sepia tone, conversion to soft focus tone, vivid) Conversion to tones, conversion to mosaics, conversion to miniature photography, etc.). The parameters are various numerical values used when performing image processing, and such parameters are numerical values representing the nature of image processing, and specify, for example, brightness, fineness of image conversion, smoothness, and texture. Depending on the type of image processing (type of style to be changed) such as a value to be changed, the degree of style change (degree of image processing) is expressed by this parameter. The degree of image processing increases and decreases depending on the parameter, and if the parameter is large, that is, if the degree of image processing is large, the change in the image before and after the image processing becomes large. (Here, the parameter) is, for example, the degree of change when the images before and after the image processing are compared. There, for example, a parameter such as image conversion used in Photoshop, or the like.
本実施形態では、このような画像処理やその表示動作を、センサ部130を構成するタッチセンサへの手指接触と連動させることにより、より利便性の高い画像表示の実現を図る。
In the present embodiment, such image processing and display operation thereof are linked with finger contact with the touch sensor constituting the
次に制御部110の構成について図3を参照して説明する。制御部110は、画像データ取得部111、領域設定部112、センサ制御部113、表示制御部114、などを備える。上述のように、これらの各部が行う処理は、ここでは、CPUによって行われ、これらの各部は制御部110の構成要素であるCPU、RAM、VRAM等の組み合わせによって構成される。
Next, the configuration of the
画像データ取得部111は、デジタルフォトフレーム100で表示する画像(元画像)を表す画像データを取得する。ここでは、例えば、I/F部150を制御することで、メモリカード又は外部装置(デジタルカメラ、パーソナルコンピュータなど)などから写真画像などを表す画像データを取得する。デジタルフォトフレーム100の外部から取得された画像データは、記憶部160に保存されていてもよく、この場合は、画像データ取得部111は、表示対象となる写真画像の画像データを記憶部160から取得する。
The image data acquisition unit 111 acquires image data representing an image (original image) displayed on the
画像データ取得部111は、表示対象となる画像データを取得すると、この取得した画像データを保持する(例えば、RAMに展開する)。なお、表示対象となる画像データや画像の取得元などの選択は、デジタルフォトフレーム100の使用者による操作部140の操作に基づいてなされる。
When the image data acquisition unit 111 acquires image data to be displayed, the image data acquisition unit 111 holds the acquired image data (for example, develops it in a RAM). Note that image data to be displayed, an image acquisition source, and the like are selected based on an operation of the
センサ制御部113は、センサ部130を制御し、タッチセンサ上での接触操作に応じた検出信号を取得する。この検出信号に基づいて、センサ制御部113は、タッチ位置、接触の内容等を検出する。
The
領域設定部112は、センサ制御部113が検出したタッチ位置等に基づいて、画像データ取得手段が保持する画像データが表す元画像における二つの領域を設定する。この二つの領域を第1領域と第2領域とする。この二つの領域は、タッチ位置の変化に応じて動的に変化する。
The area setting unit 112 sets two areas in the original image represented by the image data held by the image data acquisition unit based on the touch position detected by the
表示制御部114は、画像データ取得部111が取得しRAMに展開されている元画像の画像データ(以下、元画像データという。)を加工することで、異なる画風の変換画像の画像データ(以下、変換画像データという。)を生成する。ここでは、上述したような、ラスタ画像用のグラフィックソフトにおけるフィルタ(アートフィルタ)などと同様の動作をおこなうことで、元画像データを加工して変換画像データを生成する。すなわち、元画像を変換した変換画像が生成される。本実施形態では、センサ部130のタッチセンサで検出された手指接触と連動した表示制御(詳細後述)がおこなわれるものとするが、元画像を表示している過程で操作部140が任意に操作されることに応じて、画像処理がおこなわれてもよい。
The display control unit 114 processes the image data (hereinafter referred to as original image data) of the original image acquired by the image data acquisition unit 111 and developed in the RAM, thereby converting the image data (hereinafter referred to as converted image) of different styles. , Referred to as converted image data). Here, the original image data is processed to generate converted image data by performing the same operation as the above-described filter (art filter) in raster image graphic software. That is, a converted image obtained by converting the original image is generated. In this embodiment, display control (details will be described later) is performed in conjunction with the finger contact detected by the touch sensor of the
1つの元画像から生成される変換画像は1つに限られるものではなく、例えば、異なる画像処理を施した複数種類の変換画像(つまり、画風が異なる複数種の変換画像)が生成されてもよく、あるいは、同じ画像処理でパラメータを異ならせた複数種類の変換画像(つまり、画像処理の度合いが異なる複数種の変換画像)が生成されてもよい。なお、表示制御(タッチ連動表示処理等も含む)に必要となる表示制御プログラムやデータ(パラメータ等)などは記憶部160に格納されているものとし、生成された変換画像データは、RAMやVRAMに展開される他、必要に応じて記憶部160などに保存される。
The number of converted images generated from one original image is not limited to one. For example, even if a plurality of types of converted images subjected to different image processing (that is, a plurality of types of converted images having different styles) are generated. Alternatively, a plurality of types of converted images (that is, a plurality of types of converted images having different degrees of image processing) with different parameters may be generated by the same image processing. It is assumed that a display control program and data (such as parameters) necessary for display control (including touch-linked display processing) are stored in the
表示制御部114は、表示部120を制御し、画像データ取得部111が取得した元画像データに基づいて、元画像を表示部120の表示パネルに表示させる他、変換画像を表示パネルに表示させる。また、表示制御部114は、領域設定部112が設定した第1領域と第2領域とに基づいて、元画像と変換画像の表示態様を制御する。特に、動的に変化する第1領域と第2領域とに基づいて、元画像と変換画像の表示態様を動的に制御する。この場合、表示制御部114は、第1領域を変換画像のこの領域に対応する部分とし、第2領域を元画像のこの領域に対応する部分とした第2画像を表示部に表示する。
The display control unit 114 controls the
この場合において、表示制御部114は、例えば、既知のオーサリングソフトなどで用いられているような演出効果のある表示処理により、例えば、アニメーション効果のあるテンプレート画像などを表示画像と合成して表示出力する。このようなテンプレート画像は予め作成されているものとし、記憶部160などに格納されているものとする。
In this case, the display control unit 114 synthesizes, for example, a template image having an animation effect with the display image and performs display output by display processing having an effect such as that used in known authoring software or the like. To do. It is assumed that such a template image is created in advance and stored in the
なお、本実施形態では、制御部110(CPU)がプログラムを実行することによる論理的処理で上述した各機能が実現されるものとするが、これらの機能を、例えば、ASIC(Application Specific Integrated Circuit:特定用途向け集積回路)などのハードウェアによって構成してもよい。つまり、制御部110の一部をASICによって構成してもよい。例えば、表示制御部114の少なくとも一部は、いわゆる画像処理エンジンなどのような、制御部110のCPUなどとは独立した専用プロセッサによって構成されてもよく、いわゆるグラフィックボードなどのような、制御部110のCPUなどとは独立した専用プロセッサを有するモジュール等によって構成されてもよい。
In the present embodiment, each function described above is realized by a logical process performed by the control unit 110 (CPU) executing a program. For example, these functions may be realized by, for example, an ASIC (Application Specific Integrated Circuit). : An application specific integrated circuit) or the like. That is, a part of the
このような構成のデジタルフォトフレーム100による動作例を以下に説明する。ここでは、デジタルフォトフレーム100による表示制御時に制御部110の各部によって実行される「タッチ連動表示処理」を、図4のフローチャートを参照して説明する。本実施形態にかかるデジタルフォトフレーム100には、取得した元画像を順次表示させる通常の表示モードの他に、センサ部130のタッチセンサへの手指接触と連動して変換画像の生成や表示切替をおこなうことのできるモード(以下、「タッチ連動モード」とする)が用意されているものとし、このタッチ連動モードが選択されたことを契機に「タッチ連動表示処理」が開始されるものとする。
An operation example of the
上述したように、本実施形態にかかるデジタルフォトフレーム100では、表示パネルの横方向に対応するタッチセンサが備えられており、本実施形態では、本実施形態にかかるデジタルフォトフレーム100は、このようなタッチセンサ上での左右方向の手指移動(スライド)に応じて、元画像と変換画像との表示切替や複数の変換画像の表示切替がおこなわれるように動作する。
As described above, in the
すなわち、手指のスライド方向によって表示制御をおこなうものであるが、本実施形態では、例えば、「元画像が表示されているときにタッチセンサ上で右から左へのスライドが検出された場合には、当該元画像についての変換画像へと表示を切り替える」、などのような連動動作が予め規定されているものとする。 That is, display control is performed according to the slide direction of the finger. In this embodiment, for example, “when a slide from right to left is detected on the touch sensor when the original image is displayed, Assume that an interlocking operation such as “switch the display to a converted image of the original image” is defined in advance.
なお、このような動作規定は、例えば、適用する画像処理の種類などとともに、使用者によって任意に設定できるものとし、設定内容が記憶部160に記録されているものとする。以下に説明する処理は、このような動作規定に基づいておこなわれるものであり、対応する動作規定は一例である。
It is assumed that such an operation rule can be arbitrarily set by the user together with the type of image processing to be applied, and the setting content is recorded in the
タッチ連動表示処理が開始されると、画像データ取得部111は、表示対象となる元画像の元画像データを取得してRAMに展開し、その旨を表示制御部114及び領域設定部112に通知する。表示制御部114は、RAMに展開された元画像データが表す元画像を表示部120に表示する(ステップS11)。ここで、本実施形態にかかるデジタルフォトフレーム100は、上述したように、レイヤ表示可能であるものとし、ステップS11では、表示制御部114は、画像データ取得部111が取得した元画像を、図7(a)に示すような、表示部120の表示画面において最も前面となるレイヤ(以下、「前面レイヤ」とする)に表示する。
When the touch-linked display process is started, the image data acquisition unit 111 acquires the original image data of the original image to be displayed and expands it in the RAM, and notifies the display control unit 114 and the region setting unit 112 of that fact. To do. The display control unit 114 displays the original image represented by the original image data expanded in the RAM on the display unit 120 (step S11). Here, it is assumed that the
ここで、本実施形態では、図7(a)に示すような元画像と、当該元画像に対して画像処理をおこなうことで生成される変換画像とを例に以下説明する。この場合、ステップS11での表示処理により、図7(b)に示すように、元画像が表示部120の表示パネルに表示される。ここでは、元画像を前面レイヤとして表示しているので、図7(b)に示すように、元画像が可視的に表示されることになる。
Here, in the present embodiment, an original image as illustrated in FIG. 7A and a converted image generated by performing image processing on the original image will be described below as an example. In this case, the original image is displayed on the display panel of the
また、後述する変換画像は、図7(a)に例示するような、元画像に画像処理(アートフィルタなど)を施すことで、被写体や構図などは同一であるが、例えば、色調やテクスチャ、輪郭線などを変化させたものである。本実施形態では、適宜、元画像と変換画像とをレイヤ表示させる際のデフォルト設定として、図7(a)に示すように、元画像が表示される前面レイヤの背面となるレイヤ(以下、「背面レイヤ」とする)に変換画像が表示されるものとする。 In addition, the converted image described later is subjected to image processing (such as an art filter) on the original image as illustrated in FIG. 7A, so that the subject and composition are the same. The contour line is changed. In the present embodiment, as a default setting when displaying the original image and the converted image in layers as appropriate, as shown in FIG. 7A, a layer (hereinafter referred to as “below”) that is the back side of the front layer on which the original image is displayed. It is assumed that the converted image is displayed on the “back layer”.
一方、処理開始と同時に、センサ制御部113がセンサ部130を制御することで、センサ部130を構成しているタッチセンサが励起され、センサ部130は、使用者等による手指接触による接触操作を検出できる状態となる。使用者等がタッチセンサに接触操作(タッチ)すると、これを検出したセンサ部130から検出信号がセンサ制御部113に入力される。センサ制御部113は、このような検出信号の入力の有無に基づいて、タッチセンサへのタッチが発生したか否かを判別する(ステップS12)。
On the other hand, simultaneously with the start of processing, the
センサ制御部113は、センサ部130からの検出信号に基づいて、タッチセンサへのタッチが発生したことを検出すると(ステップS12:Yes)、タッチセンサ上でのタッチ位置がどこであるかを判別する(ステップS13)。ここで、本実施形態では、図7(c)に示すように、センサ部130を構成しているタッチセンサ上に、例えば、長手方向に略3等分した3つの領域が設定されているものとする。これらの領域は、表示部120の表示パネルに表示されている画像を鑑賞するユーザ等から向かって左から、「左領域」、「中央領域」、「右領域」であるものとし、「左領域」には少なくともタッチセンサの左端部が含まれ、「中央領域」には少なくともタッチセンサの中央部が含まれ、「右領域」には少なくともタッチセンサの右端部が含まれているものとする。
When the
センサ制御部113は、センサ部130から入力される検出信号が示すタッチを検出した位置(タッチ位置)に基づいて、使用者等によるタッチセンサでのタッチ位置が上記各領域のいずれであるかを判別する。
Based on the position (touch position) at which the touch indicated by the detection signal input from the
タッチセンサ上でのタッチ位置が「右領域」である場合(ステップS14:Yes)、領域設定部112と表示制御部114とは、タッチセンサ上での手指移動(スライド)動作(タッチ位置の移動)に基づいて元画像と変換画像との表示変更をおこなうための「表示変更処理(1)」を実行する。 When the touch position on the touch sensor is the “right area” (step S14: Yes), the area setting unit 112 and the display control unit 114 perform a finger movement (slide) operation (touch position movement) on the touch sensor. ) To execute display change processing (1) for changing the display between the original image and the converted image.
ここで、本実施形態では、タッチ連動表示の際、右から左へのスライド動作の場合には、スライドに応じて元画像から変換画像に変化する動作規定がなされているものとする。この場合、タッチした手指を左方向にスライドさせる可能性が高い「右領域」に最初のタッチがなされたことを契機に、元画像から変換画像に変化させるための「表示変更処理(1)」が実行される。この「表示変更処理(1)」を、図5に示すフローチャートを参照して説明する。 Here, in this embodiment, in the case of a slide operation from right to left during touch-linked display, it is assumed that an operation regulation that changes from an original image to a converted image according to the slide is made. In this case, “display change process (1)” for changing from the original image to the converted image when the first touch is made in the “right region” where the touched finger is likely to slide leftward. Is executed. This “display change process (1)” will be described with reference to the flowchart shown in FIG.
処理が開始されると、表示制御部114は、直接もしくは画像データ取得部111を介して記憶部160などにアクセスし、ステップS11で表示した元画像から変換された変換画像が作成済であるか否かを判別する(ステップS101)。例えば、以前の処理、又は適宜のタイミング等によって、表示制御部114等によって元画像データから予め変換画像データが生成されて、記憶部160に記録されている場合があり、この場合には、記憶部160に変換画像データが記録されているため、ステップS101において変換画像が作成済みと判別されるものとする。また、この場合、変換画像データは、元画像データを用いて検索可能となるように、記憶部160に記録されるものとする。そして、表示制御部114は、画像データ取得部111が保持する元画像データに基づいて、変換画像データを検索し、変換画像が作成済みであるか(記録されているか)を判別する。
When the processing is started, the display control unit 114 accesses the
作成済である場合(ステップS101:Yes)、表示制御部114は、当該変換画像の変換画像データの取得を直接もしくは画像データ取得部111を介して行い、この変換画像データの変換画像を背面レイヤとして表示する。この場合、図7(a)に示すように、変換画像が背面レイヤに設定される(ステップS102)。この場合、元画像と変換画像とが同一座標系では同じ位置となるようRAMもしくはVRAM上で仮想的に積層配置するので、元画像は可視的に表示されるが、変換画像は不可視となる。なお、作成済の変換画像が存在しない場合(ステップS101:No)、ステップS102の動作はスキップされる。 If it has been created (step S101: Yes), the display control unit 114 acquires the converted image data of the converted image directly or via the image data acquiring unit 111, and uses the converted image of the converted image data as the back layer. Display as. In this case, as shown in FIG. 7A, the converted image is set to the back layer (step S102). In this case, since the original image and the converted image are virtually stacked on the RAM or VRAM so that they are in the same position in the same coordinate system, the original image is displayed visually, but the converted image is invisible. If there is no created converted image (step S101: No), the operation in step S102 is skipped.
この間もセンサ部130ではタッチセンサの動作が継続されており、検出に応じた検出信号が随時センサ制御部113に供給される。センサ制御部113は、このような検出信号の変化に基づいて、タッチセンサ上の手指がスライドしたか否かを判別する(ステップS103)。すなわち、最初に検出されたタッチ位置から、タッチ状態を維持したままタッチ位置に変化が生じた場合、タッチセンサ上の手指がスライドしたと判別する。
During this time, the operation of the touch sensor is continued in the
タッチセンサ上の手指がスライドした場合(ステップS103:Yes)、センサ制御部113は、そのスライド方向が、使用者等からタッチセンサに向かって「左方向」であるか否かを判別し(ステップS104)、左方向へのスライドである場合には(ステップS104:Yes)、その移動量(スライド量)を示す情報を随時領域設定部112に通知する。つまり、領域設定部112は、センサ制御部113によって随時移動量を特定できる。
When the finger on the touch sensor slides (step S103: Yes), the
領域設定部112は、センサ制御部113から通知されるスライド量を示す情報に基づいて、タッチパネル上でのスライド量(センサ制御部113が検出したタッチ位置)に応じて動的に規定される前面レイヤ上の領域(以下、「領域AR」とする)を設定する(ステップS105)。
The area setting unit 112 is dynamically defined based on the slide amount (touch position detected by the sensor control unit 113) on the touch panel based on information indicating the slide amount notified from the
ここでは、表示部120の表示パネル上での表示領域を、例えば、図8(a)に示すような、画面の左上頂部の座標を(Xmin ,Ymin)、画面の右下頂部の座標を(Xmax, Ymax)とする範囲とし、タッチセンサ上でのスライド量に対応する表示画面上での1次元方向(X方向=横方向)のドット数をMとした場合、座標(Xmax, Ymax)と、座標(Xmax-M, Ymin)を対角とする矩形領域が領域ARとして設定される。第1領域と第2領域との境界と、タッチセンサにおけるタッチ位置と、は、横方向において略同じ位置になるように領域ARが設定される。なお、この領域ARは、ここでは、上記の第1領域に相当する。また、領域ARの形状は、矩形以外の形状でもよく、適宜設定されているものとする。
Here, the display area on the display panel of the
領域設定部112が領域ARを設定すると、表示制御部114は、当該領域ARでは変換画像が可視的に表示されるような表示処理をおこなう(ステップS106)。この場合の表示処理は、例えば、変換画像が作成済であるか否かによって異なる。 When the area setting unit 112 sets the area AR, the display control unit 114 performs a display process so that the converted image is visually displayed in the area AR (step S106). The display process in this case differs depending on, for example, whether the converted image has been created.
変換画像が作成済である場合、ステップS102で変換画像が背面レイヤに設定されているので、前面レイヤにおける領域ARを透過させる表示処理をおこなうことで、図8(b)に示すように、領域ARでは変換画像が可視的に表示される。この場合、領域ARに応じて受動的に規定される残りの領域(以下、「領域PR」とする。この領域PRが上記の第2領域に相当する。)には、元画像が可視的に表示されたままとなる。すなわち、図8(b)に示すように、元画像と変換画像とが部分的に合成された状態で表示される。 When the converted image has been created, since the converted image is set in the back layer in step S102, the display process for transmitting the area AR in the front layer is performed, so that the area as shown in FIG. In AR, the converted image is visibly displayed. In this case, the original image is visibly visible in the remaining region (hereinafter referred to as “region PR”, which corresponds to the second region) passively defined according to the region AR. It remains displayed. That is, as shown in FIG. 8B, the original image and the converted image are displayed in a partially synthesized state.
一方、変換画像が未作成である場合、領域設定部112は、設定した領域ARを表示制御部114に通知することで、表示制御部114は、前面レイヤに表示している元画像における領域ARの部分に画像処理を施すようにする。すなわち、画像データ取得部が保持している元画像データに基づいて、このデータの元画像に対し部分的に画像処理をおこなうことで、元画像のうち、領域ARに対応する部分が変換画像となる。この場合も、図8(b)に示すような、元画像と変換画像とが部分的に合成された表示となる。 On the other hand, when the converted image has not been created, the region setting unit 112 notifies the display control unit 114 of the set region AR, so that the display control unit 114 can display the region AR in the original image displayed on the front layer. Image processing is performed on the part of. That is, based on the original image data held by the image data acquisition unit, partial image processing is performed on the original image of this data, so that a portion corresponding to the area AR in the original image is converted into a converted image. Become. Also in this case, a display in which the original image and the converted image are partially combined as shown in FIG.
上記いずれの場合でも、表示制御部114は、画像データ取得部111が取得した画像データと領域設定手段112が設定した第1領域(領域AR)及び第2領域(領域PR)とに基づいて、画像データが表す第1画像の第1領域の画風を変更させた(第1領域に画像処理を施した)第2画像を生成することになる。ここでは、とくに、表示制御部114によって、第2画像を表す第2画像データが生成されることによって、第2画像が生成される。そして、表示制御部114によって第2画像が表示部120に表示されることになる。
In any of the above cases, the display control unit 114 is based on the image data acquired by the image data acquisition unit 111 and the first region (region AR) and the second region (region PR) set by the region setting unit 112. A second image in which the style of the first region of the first image represented by the image data is changed (image processing is performed on the first region) is generated. Here, in particular, the display control unit 114 generates second image data representing the second image, thereby generating the second image. Then, the second image is displayed on the
ここで、センサ制御部113は、センサ部130からの検出信号に基づいて、タッチセンサ上での手指スライドが停止したか否かを判別し、表示制御部114は、スライドに連動した表示処理により変換画像の全面が可視的に表示されたか否かを判別する(ステップS107)。
Here, the
これらの条件のいずれもが生じなければ(ステップS107:No)、領域設定部112と表示制御部114とは、ステップS105〜ステップS106の動作を連続的におこなう。これにより、図8(b)に示すように、タッチセンサ上での右から左への手指スライドに合わせ、元画像の右端からの領域が変換画像に変化するように表示される。 If none of these conditions occurs (step S107: No), the region setting unit 112 and the display control unit 114 continuously perform the operations from step S105 to step S106. Thereby, as shown in FIG. 8B, the region from the right end of the original image is displayed so as to change into the converted image in accordance with the finger slide from right to left on the touch sensor.
この表示処理をおこなう際に、例えば、図8(c)に示すような、ページカールを模した装飾イメージなどを領域ARと領域PRの境界に合わせて合成することで、表示演出をおこなってもよい。このような表示演出の実施要否や合成させる画像の種類などは、予め使用者等により設定されているものとし、この設定にしたがって表示処理がなされるものとする。なお、このような表示演出によって、元画像と変換画像との境界が分かりやすくなる。 When this display process is performed, for example, a decoration effect imitating a page curl as shown in FIG. 8C is synthesized in accordance with the boundary between the area AR and the area PR, thereby providing a display effect. Good. The necessity of performing such display effects, the type of image to be combined, and the like are set in advance by a user or the like, and display processing is performed according to this setting. Such a display effect makes it easy to understand the boundary between the original image and the converted image.
一方、タッチセンサ上での手指スライドの停止もしくは変換画像全面の可視表示がなされたと判別された場合において(ステップS107:Yes)、その後さらにタッチセンサ上での右方向へのスライドが検出されると(ステップS108:Yes)、上記左方向へのスライドの場合と同様の処理により、領域設定部112が右方向へのスライド量に対応する一次元方向のドット数に基づいた領域ARを設定し(ステップS109)、表示制御部114は、当該領域ARが元画像で表示されるような表示処理を、右方向への手指スライドの停止や元画像全面の可視表示がなされるまで行う(ステップS110、ステップS111:No)。 On the other hand, when it is determined that the finger slide is stopped on the touch sensor or the entire conversion image is visible (step S107: Yes), and then a rightward slide on the touch sensor is further detected. (Step S108: Yes), the region setting unit 112 sets an area AR based on the number of dots in the one-dimensional direction corresponding to the amount of sliding in the right direction by the same processing as in the case of sliding in the left direction. In step S109, the display control unit 114 performs display processing such that the area AR is displayed as the original image until the finger slide is stopped in the right direction or the entire original image is visible (step S110). Step S111: No).
そして、右方向への手指スライドが停止したり、元画像の全面が可視表示されたりすると(ステップS111:Yes)、表示制御部114は、本処理を終了させる条件となる所定の終了イベントが発生したか否かを判別する(ステップS112)。ここでは、例えば、タッチセンサから手指が離れたことやタッチ連動モードが終了したことなどが終了イベントとなる。 When the finger slide in the right direction stops or the entire original image is visible (step S111: Yes), the display control unit 114 generates a predetermined end event as a condition for ending this process. It is determined whether or not it has been done (step S112). Here, for example, the end event is that the finger has left the touch sensor or the touch-linked mode has ended.
このような終了イベントが発生しなければ(ステップS112:No)、ステップS103以降の処理が繰り返し実行される。すなわち、元画像が表示された状態において、タッチセンサ上で左方向に手指をスライドさせると、そのスライドに対応して変換画像が表示されるようになり、右方向にスライドさせると、そのスライドに対応して元の表示に戻るような画面表示が連続的におこなわれる。このようにして、タッチ位置の移動に応じて、領域ARと領域PRとが動的に変化する。 If such an end event does not occur (step S112: No), the processes after step S103 are repeatedly executed. That is, when the finger is slid in the left direction on the touch sensor while the original image is displayed, the converted image is displayed corresponding to the slide, and when the finger is slid in the right direction, the slide is displayed. Correspondingly, the screen display that returns to the original display is continuously performed. In this way, the area AR and the area PR dynamically change according to the movement of the touch position.
なお、タッチセンサの右領域上でタッチ検出されたことを契機に開始された本処理において、タッチセンサ上での手指スライドが検出されない場合(ステップS103:No)、手指をスライドさせない場合の表示処理となる「表示変更処理(2)」(ステップS200)のステップS203〜ステップS207(詳細後述)が実行されることになる(ステップS113)。 In addition, in this process started when touch detection is performed on the right area of the touch sensor, when a finger slide on the touch sensor is not detected (step S103: No), display processing when the finger is not slid Steps S203 to S207 (details will be described later) of the “display change process (2)” (step S200) are executed (step S113).
また、本処理は、左方向へのスライドとなる可能性の高い右領域でのタッチが検出されたことを契機に開始されるものであるが、この状態で右方向へのスライドが検出された場合(ステップS104:No)、本処理にかかる表示処理が既に実行されているのであれば(ステップS114:Yes)、右方向のスライドに応じた表示処理であるステップS109〜ステップS111の動作がおこなわれる。 This process is started when a touch in the right area that is likely to slide to the left is detected. In this state, a slide to the right is detected. In the case (step S104: No), if the display process related to this process has already been executed (step S114: Yes), the operations of steps S109 to S111, which are display processes corresponding to the slide in the right direction, are performed. It is.
一方、処理を開始してから最初に検出されたスライドの方向が右方向である場合(ステップS114:No)は、表示制御時の右方向スライドに対応した「通常の表示切替処理」(ステップS300、詳細後述)が実行されることになる。 On the other hand, when the direction of the slide detected first after starting the process is the right direction (step S114: No), “normal display switching process” (step S300) corresponding to the right direction slide at the time of display control. , Details will be described later).
ここでは、左方向のスライドとなる可能性が高い右領域でのタッチが検出されると、スライドが検出される前に変換画像の用意がされる場合がある(ステップS102)。この場合、スライドの検出と同時に表示切替をおこなうことができるとともに、スライド方向が想定とは異なる場合であっても、当該スライド方向について規定された動作が実行され、使用者にストレスをかけない表示制御をおこなうことができる。 Here, when a touch in the right region that is likely to be a leftward slide is detected, a converted image may be prepared before the slide is detected (step S102). In this case, the display can be switched simultaneously with the detection of the slide, and even if the slide direction is different from the expected one, the operation specified for the slide direction is executed, and the display does not stress the user. Control can be performed.
「表示変更処理(1)」についての処理終了イベントの発生(ステップS112:Yes)などによって本処理を終了すると、「タッチ連動表示処理」(図4)のフローに戻る。 When this process ends due to the occurrence of a process end event for “display change process (1)” (step S112: Yes) or the like, the flow returns to the “touch-linked display process” (FIG. 4).
「表示変更処理(1)」からリターンした「タッチ連動表示処理」では、「タッチ連動表示処理」を終了させる条件となる所定の終了イベントが発生したか否かが判別される(ステップS16)。ここでは、例えば、タッチ連動モードが終了したことやデジタルフォトフレーム100の電源オフなどが終了イベントとなる。
In the “touch-linked display process” returned from the “display change process (1)”, it is determined whether or not a predetermined end event that is a condition for ending the “touch-linked display process” has occurred (step S16). Here, for example, the end event is that the touch-linked mode ends or the
本処理にかかる終了イベントが発生しなければ(ステップS16:No)、ステップS12以降の処理がおこなわれる。以下、検出されたタッチの位置が「右領域」以外である場合の動作例を説明する。 If the end event related to this process does not occur (step S16: No), the process after step S12 is performed. Hereinafter, an operation example when the detected touch position is other than the “right region” will be described.
まず、タッチ位置が「中央領域」であった場合の動作を例示する。本実施形態では、タッチセンサ上の1点をタッチし続けた場合、そのとき表示されている元画像を変換画像に切り替えた上で、当該変換画像にかかる画像処理のパラメータを、タッチ継続時間に応じて変化させて表示する動作が規定されているものとする。この場合において、推奨されるタッチ位置がタッチセンサの「中央領域」であるものとする。 First, the operation when the touch position is the “center area” is illustrated. In this embodiment, when one point on the touch sensor is continuously touched, the original image displayed at that time is switched to the converted image, and the parameter of the image processing related to the converted image is set to the touch duration time. It is assumed that the operation of changing and displaying in response is defined. In this case, it is assumed that the recommended touch position is the “center area” of the touch sensor.
このような動作規定に基づき、検出されたタッチの位置が「中央領域」である場合(ステップS15:YES)、上記表示処理をおこなうための「表示変更処理(2)」が実行される(ステップS200)。この「表示変更処理(2)」を、図6に示すフローチャートを参照して説明する。 If the detected touch position is the “center area” based on such an operation rule (step S15: YES), the “display change process (2)” for performing the display process is executed (step S15). S200). This “display change process (2)” will be described with reference to the flowchart shown in FIG.
処理が開始されると、センサ制御部113は、センサ部130から入力される検出信号に基づいて、タッチセンサ上での手指スライドがおこなわれていないか判別する(ステップS201)。ここで、本処理開始後に手指スライドが検出された場合(ステップS201:No)、スライドに応じて表示処理をおこなう「表示変更処理(1)」(図5)のステップS104〜ステップS112が実行される(ステップS202)。すなわち、タッチ位置から想定される操作ではない場合でも、検出された動作に応じた表示処理がおこなわれる。
When the process is started, the
一方、タッチした手指が静止しているのであれば(ステップS201:Yes)、表示制御部114は、直接もしくは画像データ取得部111を介して記憶部160などにアクセスし、ステップS11で表示した元画像から変換された変換画像が作成済であるか否かを判別する(ステップS203)。これらの処理は、ステップS103の処理と同様であるので詳細な説明を省略する。
On the other hand, if the touched finger is stationary (step S201: Yes), the display control unit 114 accesses the
作成済である場合(ステップS203:Yes)、表示制御部114は、当該変換画像の変換画像データの取得を直接もしくは画像データ取得部111を介して行い、この変換画像データの変換画像を前面レイヤとして表示部120に表示する。すなわち、デフォルトでは元画像が前面レイヤで可視表示されているが、本処理においては、当該元画像についての変換画像に切り替えられることになる(ステップS204)。なお、記憶部160などに格納されている変換画像の画像データには、当該変換画像の生成に用いられた画像処理で適用されたパラメータを示す情報が含まれているものとする。
When it has been created (step S203: Yes), the display control unit 114 acquires the converted image data of the converted image directly or via the image data acquiring unit 111, and uses the converted image of the converted image data as the front layer. Is displayed on the
一方、表示中の元画像についての変換画像が作成済でない場合(ステップS203:No)、表示制御部114は、画像処理を当該元画像に適用することで変換画像を生成し(つまり、画像データ取得部111が保持する元画像データに基づいて、変換画像データを生成し)、生成した変換画像を表示部120に表示する(つまり、生成した変換画像データに基づいて変換画像を表示部120に表示する)。これにより、可視表示される画像が元画像から変換画像に切り替わる(ステップS205)。この場合において、表示制御部114は、例えば、実行する画像処理の適用度合(画風の変更の度合い、つまり、画風の変化度)が最も低くなるパラメータを適用して変換画像を生成する。
On the other hand, when the converted image for the original image being displayed has not been created (step S203: No), the display control unit 114 generates a converted image by applying image processing to the original image (that is, image data). The converted image data is generated based on the original image data held by the acquisition unit 111, and the generated converted image is displayed on the display unit 120 (that is, the converted image is displayed on the
本実施形態では、画像処理の適用度合が最も弱くなるパラメータを「初期値」とし、パラメータが初期値の画像処理によって生成された変換画像を、以下「変換画像A」とする。また、変換画像Aよりも画像処理の適用度合が1段階強められた変換画像を「変換画像B」とし、変換画像Bよりも画像処理の適用度合がさらに1段階強められた変換画像を「変換画像C」とする。 In the present embodiment, the parameter with the weakest application degree of image processing is referred to as “initial value”, and the converted image generated by image processing with the parameter being the initial value is referred to as “converted image A” hereinafter. Also, a converted image in which the degree of application of image processing is increased by one step compared to the converted image A is referred to as “converted image B”, and a converted image in which the degree of application of image processing is further increased by one step than in the converted image B Image C ”.
このようにして、表示部120の表示パネルにおいて変換画像が可視表示されると、表示制御部114は、当該表示中の変換画像について現在適用されているパラメータを異ならせた同じ種類の画像処理を適用する(ステップS206)。この動作を、タッチセンサでのタッチ位置の移動又はタッチの終了(センサ制御部113による接触位置の検出等によって分かる。)、もしくは、変更可能なパラメータ範囲の終了が検出されるまで実行することで(ステップS207:No)、タッチセンサ上で手指タッチがおこなわれている間、例えば、図9に示すように、変換画像Aから変換画像Cへと徐々に変化するよう表示される。なお、このとき、表示制御部114は、ステップS207の処理でNoと判別する毎に所定時間待機することによって、変換画像Aから変換画像Cへと徐々に変化するよう表示される。
In this way, when the converted image is visibly displayed on the display panel of the
ここでは、一例として、画像処理の適用度合が最も弱くなるパラメータを初期値とし、適用度合を強めていく場合を示したが、画像処理の適用度合が最も強くなるパラメータを初期値とし、適用度合を弱めていくように表示させてもよい。 Here, as an example, the parameter in which the image processing application level is the weakest is set as the initial value and the application level is increased. However, the parameter in which the image processing application level is the strongest is set as the initial value, and the application level is May be displayed so as to weaken.
また、変換画像について画風の種類を順次異ならせて(例えば、油絵風、ちぎり絵風、水墨画風の順に画風の種類を変化させ)、変換画像の画風を変更してもよい。この場合には、繰り返し行われるステップS206において、表示制御部114は、異なる種類の画風の変換画像データを画像データ取得部111が保持する元画像データに基づいて順次生成し(変換画像を生成し)、生成した変換画像データが表す変換画像を表示部120に表示しても良い。なお、変換する画風の種類の順序については予めユーザの指定等によって設定されているものとする。なお、この場合の必要なデータ等は、記憶部160に記録され、表示制御部114によって使用されるものとする。
Alternatively, the style of the converted image may be changed by sequentially changing the style of the converted image (for example, by changing the style of the style in the order of oil painting style, tearing style, and ink style). In this case, in step S206 that is repeatedly performed, the display control unit 114 sequentially generates converted image data of different types of styles based on the original image data held by the image data acquisition unit 111 (generates a converted image). ), A converted image represented by the generated converted image data may be displayed on the
そして、センサ部130からの検出信号に基づいてセンサ制御部113がタッチ終了を判別したり、表示制御部114による画像処理のパラメータが適用可能範囲の上限もしくは下限となった場合(ステップS207:Yes)、本処理を終了して「タッチ連動表示処理」(図4)のフローに戻る。
Then, when the
なお、上記動作例においては、パラメータ範囲の終了によって処理を終了するものとしたが、パラメータの上限もしくは下限に達した後も手指タッチが継続されている場合、例えば、パラメータの増減を逆転させて表示を継続するようにしてもよい。 In the above operation example, the processing is ended by the end of the parameter range. However, when the finger touch is continued even after reaching the upper limit or lower limit of the parameter, for example, the increase / decrease of the parameter is reversed. The display may be continued.
「表示変更処理(2)」からリターンした「タッチ連動表示処理」のフローでは、「タッチ連動表示処理」にかかる終了イベントが発生するまで、ステップS12以降の処理がおこなわれる(ステップS16:No)。 In the “touch-linked display process” flow returned from “display change process (2)”, the processes after step S12 are performed until the end event related to “touch-linked display process” occurs (step S16: No). .
次に、検出された手指タッチの位置が「左領域」であった場合(ステップS15:No)の動作例を説明する。この場合、「通常の表示切替処理」を実行する(ステップS300)。本実施形態では、デフォルトの元画像が表示されている状態で、タッチセンサ上での手指タッチを右方向にスライドさせた場合、元画像を他の元画像に切り替える動作規定が設定されているものとする。すなわち、通常のデジタルフォトフレームで一般的におこなわれているような、表示写真を次々と切り替える動作がおこなわれる。 Next, an operation example when the detected finger touch position is the “left region” (step S15: No) will be described. In this case, “normal display switching processing” is executed (step S300). In this embodiment, when the default original image is displayed, when a finger touch on the touch sensor is slid to the right, an operation rule for switching the original image to another original image is set. And That is, an operation of switching display photographs one after another as is generally performed in a normal digital photo frame is performed.
この場合、最初のタッチ位置が「左領域」であれば右方向へのスライドがおこなわれる可能性が高いため、このような場合(ステップS15:No)に「通常の表示切替処理」がおこなわれる。 In this case, if the first touch position is the “left region”, there is a high possibility of sliding in the right direction. Therefore, in such a case (step S15: No), the “normal display switching process” is performed. .
なお、上述した「表示変更処理(1)」(図5)は、左方向にスライドする可能性の高い右領域でのタッチ位置が検出された場合に実行されるが、この場合であっても、最初に検出されたスライドが右方向であれば(ステップS114:No)、通常の表示切替処理を実行することで、元画像の切替表示がおこなわれる。 The above-described “display change process (1)” (FIG. 5) is executed when a touch position in the right region that is highly likely to slide in the left direction is detected. If the slide detected first is in the right direction (step S114: No), the original image is switched and displayed by executing a normal display switching process.
以上のような各処理がおこなわれた後の「タッチ連動表示処理」(図4)では、当該処理にかかる終了イベントの発生により処理を終了する(ステップS16:Yes)。 In the “touch-linked display process” (FIG. 4) after the above processes are performed, the process ends when an end event related to the process occurs (step S <b> 16: Yes).
以上のように、本実施形態にかかるデジタルフォトフレーム100において上述した各処理が実行されることで、デジタルフォトフレームにおいて表示する写真画像にアートフィルタなどの画像処理を適用して表示する際に、元画像と変換画像との比較、あるいは、変換画像における画像処理の適用度合の比較、などを直感的な操作でおこなうことができ、使用者等の嗜好にあった画像選択などを容易におこなうことができる。
As described above, when each process described above is executed in the
上記実施形態では、上記の動作によって、センサ制御部113は、ユーザからの接触操作を検出するためのセンサ部130によって、センサ部130におけるユーザが接触操作した位置である接触位置を検出する。また、画像データ取得部111は、上記の動作によって、元画像を表す元画像データを取得する。また、領域設定部112は、画像データ取得部111が取得した(ここでは保持している)元画像データが表す元画像における領域ARと領域PRとを、センサ制御部113が検出したタッチ位置に応じて設定する。また、表示制御部114は、画像データ取得部111が取得した画像データと領域設定部112が設定した領域AR及び領域PRとに基づいて、画像データが表す第1画像の領域ARの画風を変更させた(領域ARに画像処理を施した)第2画像を生成し、生成した第2画像を表示部120に表示する。そして、領域ARと領域PRとは、所定方向(ここでは、画面上の横方向、タッチセンサの長尺方向)に沿って隣り合っており、領域設定部112は、センサ制御部113によって検出したタッチ位置が移動すると領域ARと領域PRとの境界をタッチ位置の移動に応じて(ここでは、タッチ移動の方向と平行して)移動させる。
In the embodiment described above, the
本実施形態では、上記構成によって、変換画像の領域と元画像の領域とが1つの画像について分割して表示され、これら領域の境界が接触操作による接触位置に応じて変化することになる。つまり、表示部120に表示された第2画像における領域ARと領域PRとの境界が接触操作によって変更されるので、ユーザは、元の画像と画像処理後の画像(変換画像)とをユーザの操作に連動して直感的に見比べることができる。
In the present embodiment, with the above configuration, the converted image area and the original image area are divided and displayed for one image, and the boundary of these areas changes according to the contact position by the contact operation. That is, since the boundary between the region AR and the region PR in the second image displayed on the
また、センサ部130は、少なくとも、表示部120の表示画面と少なくとも1方向(ここでは、横方向(長尺方向))で平行する1以上のタッチセンサを含む。これによって、領域ARと領域PRとの境界の移動方向をタッチセンサの長尺方向と平行にすることができ、ユーザは、元の画像と画像処理後の画像(変換画像)とをユーザの操作(指の位置)に連動して直感的に見比べることができる。特にここでは、指の位置が領域ARと領域PRとの境界と縦方向において同じ位置にあるため、ユーザは境界と指との位置関係を把握しやすい。また、タッチセンサは、デジタルフォトフレーム100の筐体に形成されるので、表示部120の表示画面が接触操作によって汚れない。
The
さらに、上記では、タッチセンサのスライド操作によって、他の操作はいらずに、自動的に画風の変更(画像処理)が行われる。 Further, in the above, the style change (image processing) is automatically performed by the slide operation of the touch sensor without any other operation.
(実施形態2)
上記実施形態1で例示した各処理を基本動作とし、これらの処理にかかる対象画像の組み合わせや手指スライドの方向と動作との対応などを異ならせることで、タッチセンサを利用した種々の表示処理をおこなうことができる。
(Embodiment 2)
Each process illustrated in the first embodiment is a basic operation, and various display processes using a touch sensor are performed by changing the combination of target images and the correspondence between the direction of the finger slide and the operation. Can be done.
例えば、上記実施形態1では、タッチセンサ上でのタッチがスライドしない場合に、変換画像における画像処理の適用度合を徐々に変化させる動作(「表示変更処理(2)」)を例示したが、このような動作を「表示変更処理(1)」で例示した動作と組み合わせてもよい。 For example, in Embodiment 1 described above, the operation (“display change process (2)”) of gradually changing the application degree of the image processing in the converted image when the touch on the touch sensor does not slide is illustrated. Such an operation may be combined with the operation exemplified in the “display change process (1)”.
例えば、図10に示すように、タッチセンサ上での手指スライドに応じて動的に規定される領域ARに変換画像Aを表示する動作をおこなった後に、手指スライドが静止した場合(つまり、所定の期間以上、タッチ位置が同じ位置に留まっている場合)、そのときの領域ARに表示している変換画像を、変換画像Aから変換画像Cへと徐々に(所定の時間間隔毎に)変化するよう表示してもよい。これによって、変換画像の画風の変更の度合いが徐々に変化する。このようにタッチ位置が変化しない期間に応じて、領域ARの画風の変更の度合いを変化させることによって、ユーザは画風の変化について確認することができる。 For example, as illustrated in FIG. 10, when the finger slide is stopped after performing the operation of displaying the converted image A in the area AR that is dynamically defined according to the finger slide on the touch sensor (that is, predetermined When the touch position stays at the same position for a period of time), the converted image displayed in the area AR at that time gradually changes from the converted image A to the converted image C (at predetermined time intervals). May be displayed. This gradually changes the degree of change in the style of the converted image. Thus, the user can confirm the change in the style by changing the degree of the change in the style of the area AR according to the period during which the touch position does not change.
また、このように変換画像を徐々に変化させる方法は任意であり、例えば、図11に示すように、元画像が表示されている状態における左方向への手指スライドに基づく領域ARに変換画像Aを表示する。そして、右方向への手指スライドが検出された場合には、当該スライドに基づく領域ARに変換画像Bを表示する。同様にして、その後の左方向の手指スライドでは、領域ARに変換画像Cを表示する。すなわち、タッチセンサ上での手指スライドの往復(タッチ位置の往復移動)に応じて、元画像から変換画像A、変換画像Aから変換画像B、変換画像Bから変換画像Cへと変換画像が変化するように、つまり、変換画像の画風の変更の度合いが徐々に変化する画像処理をすることもできる。これによって、ユーザは画風の変化についてスライド動作等で確認することができる。 Further, the method of gradually changing the converted image in this way is arbitrary. For example, as shown in FIG. 11, the converted image A is converted into an area AR based on the left finger slide in the state where the original image is displayed. Is displayed. When a finger slide in the right direction is detected, the converted image B is displayed in the area AR based on the slide. Similarly, in the subsequent finger slide in the left direction, the converted image C is displayed in the area AR. That is, the conversion image changes from the original image to the conversion image A, from the conversion image A to the conversion image B, and from the conversion image B to the conversion image C according to the reciprocation of the finger slide on the touch sensor (reciprocation of the touch position). In other words, it is possible to perform image processing in which the degree of change in the style of the converted image gradually changes. Thereby, the user can confirm the change in the style by a slide operation or the like.
なお、上記同様、変換画像について画風の種類を順次異ならせて(例えば、油絵風、ちぎり絵風、水墨画風の順に画風を変化させ)、変換画像の画風の種類を変更してもよい。これによって、ユーザは画風の表現方法の変更について確認することができる。又は、ユーザは画風の表現方法の変更についてスライド動作等で確認することができる。 As described above, the style of the converted image may be changed by sequentially changing the style of the converted image (for example, by changing the style in the order of oil painting style, tearing style, and ink style). As a result, the user can confirm the change in the style of expression. Alternatively, the user can confirm the change of the expression method of the style by a slide operation or the like.
(実施形態3)
上記実施形態では、表示パネル(表示部120)の近傍に1つのタッチセンサ(センサ部130)を備えたデジタルフォトフレーム100(図1)の例を示したが、構成するタッチセンサの数や位置は任意であり、例えば、図12(a)に示すような外観構成となるデジタルフォトフレーム100とすることもできる。
(Embodiment 3)
In the above embodiment, an example of the digital photo frame 100 (FIG. 1) provided with one touch sensor (sensor unit 130) in the vicinity of the display panel (display unit 120) is shown. Is optional, and for example, a
すなわち、図12(a)に示すように、長手方向で表示パネル(表示部120)と平行する2つのタッチセンサAおよびタッチセンサB(センサ部130)を、表示パネルの上辺および下辺それぞれの近傍に配置したデジタルフォトフレーム100としてもよい。
That is, as shown in FIG. 12A, two touch sensors A and B (sensor unit 130) parallel to the display panel (display unit 120) in the longitudinal direction are arranged in the vicinity of the upper and lower sides of the display panel. It may be a
この場合、いずれのタッチセンサにタッチされたかによって、上記実施形態1で例示した各処理の割当を変えることができ、より多様な表示処理を実現する操作を容易におこなうことができる。 In this case, the allocation of each process exemplified in the first embodiment can be changed depending on which touch sensor is touched, and operations for realizing more various display processes can be easily performed.
例えば、上側のタッチセンサAには、元画像についての表示処理操作を割り当て、下側のタッチセンサBには、変換画像についての表示処理操作を割り当てることができる。これにより、例えば、上側にタッチセンサAで検出される手指スライドの方向に応じて、表示対象となっている複数の元画像の順序にしたがい、現在表示されている元画像の前後の元画像に表示切替する。そして、元画像が表示された状態で下側のタッチセンサBへのタッチが検出されると、現在表示されている元画像についての変換画像に切り替わり、さらに下側のタッチセンサB上で手指スライドが検出された場合には、スライド方向に応じて変換画像についての表示切替(例えば、表示対象となっている元画像の表示順序に対応して、前後の変換画像が表示されるような表示切替)がおこなわれるよう表示制御することができる。 For example, a display processing operation for the original image can be assigned to the upper touch sensor A, and a display processing operation for the converted image can be assigned to the lower touch sensor B. Thereby, for example, according to the order of the plurality of original images to be displayed according to the direction of the finger slide detected by the touch sensor A on the upper side, the original images before and after the currently displayed original image are displayed. Switch display. When a touch on the lower touch sensor B is detected in a state where the original image is displayed, the screen is switched to a converted image of the currently displayed original image, and a finger slide is further performed on the lower touch sensor B. Is detected, the display switching for the converted image is performed according to the slide direction (for example, the display switching for displaying the previous and next converted images corresponding to the display order of the original image to be displayed). Display control can be performed.
あるいは、例えば、2本の手指を同時に使用することで、領域ARと領域PRを設定するようにしてもよい。すなわち、図12(b)に示すように、タッチセンサA上でのタッチ位置と、タッチセンサB上でのタッチ位置とを結んだ直線によって表示画面を2つの領域に分割し、一方を領域AR、他方を領域PRとする。この場合、各タッチセンサ上でのタッチ位置の変化に応じて、領域の割合や形状が変化するが、このような場合であっても、順次設定される領域に応じた画像処理をおこなうことで、元画像と変換画像、あるいは、複数の変換画像が合成された画面が動的に変化するように表示することができる。 Alternatively, for example, the area AR and the area PR may be set by using two fingers simultaneously. That is, as shown in FIG. 12B, the display screen is divided into two areas by a straight line connecting the touch position on the touch sensor A and the touch position on the touch sensor B, and one of the areas is an area AR. , And let the other be a region PR. In this case, the ratio and shape of the area change according to the change of the touch position on each touch sensor, but even in such a case, image processing corresponding to the sequentially set areas can be performed. The original image and the converted image, or the screen on which the plurality of converted images are combined can be displayed so as to change dynamically.
(実施形態4)
上記各実施形態では、表示パネルの近傍にタッチセンサが配置される構成を例示したが、表示パネル(表示部120)がタッチセンサ(センサ部130)の機能を備える、いわゆるタッチパネル(表示部120+センサ部130)によってデジタルフォトフレーム100を構成してもよい。
(Embodiment 4)
In each of the above embodiments, the configuration in which the touch sensor is disposed in the vicinity of the display panel is illustrated, but a so-called touch panel (
この場合、タッチパネル上でのタッチやスライドに応じて上述した各処理をおこなうことができる(特に、上記と同様に、タッチパネルの領域を「左領域」、「中央領域」、「右領域」に区切り、接触位置がどの領域にあるかで表示変更処理(1)及び(2)、表示切替処理のうちのいずれかを行う処理ができる)が、さらに、接触面積を検出することで処理方法を異ならせることができる。例えば、図13(a)に示すように、タッチパネルで検出された接触面積に基づいて、手指全体でタッチパネル上をスライドさせたことが検出された場合(接触面積が大きい場合)には、スライドしている手指の位置に対応して領域ARと領域PRとの境界を設定する。一方、タッチパネル上の接触面積に基づいて、指先でタッチパネル上をスライドさせたことが検出された場合(接触面積が小さい場合)には、例えば、元画像同士の表示切替(現在表示している元画像の前後の元画像への切替)をおこなうようにすることができる。つまり、接触面積の大小に応じて、第2画像を表示するか、表示切り替えを行うかの二通りの処理が行われても良い。ここで、接触面積が大きいとは、接触面積の大きさが所定の基準を満たす(例えば、所定の閾値を超える)場合をいい、接触面積が小さいとは、接触面積の大きさが所定の基準を満たさない(例えば、所定の閾値以下である)場合をいう。 In this case, each process described above can be performed according to touch or slide on the touch panel (particularly, the touch panel area is divided into “left area”, “center area”, and “right area” as described above). Depending on which region the contact position is in, the display change processing (1) and (2) or display switching processing can be performed). Further, if the processing method is different by detecting the contact area Can be made. For example, as shown in FIG. 13A, when it is detected that the entire finger is slid on the touch panel based on the contact area detected by the touch panel (when the contact area is large), the slide is performed. The boundary between the area AR and the area PR is set in accordance with the position of the finger that is present. On the other hand, when it is detected that the fingertip has slid on the touch panel based on the contact area on the touch panel (when the contact area is small), for example, display switching between the original images (the currently displayed source) Switching to the original image before and after the image) can be performed. That is, two types of processing of displaying the second image or switching the display may be performed according to the size of the contact area. Here, the large contact area means that the size of the contact area satisfies a predetermined standard (for example, exceeds a predetermined threshold), and the small contact area means that the size of the contact area is a predetermined standard. (For example, below a predetermined threshold).
センサ制御部113は、上記のように、センサ部130への接触操作による接触面積を検出し、表示制御部114は、接触面積の大きさが所定の基準を満たす場合に、第2画像を表示部120に表示する処理を行う。また、接触面積の大きさが所定の基準を満たさない場合、画像データ取得部111は、現在表示部120に表示している画像についての画像データ(現在保持している画像データ)とは異なる他の画像データ(元画像データ)を取得する。そして、表示制御部114は、画像データ取得部111が新たに取得した元画像データに基づいて、この元画像データが表す元画像を表示部120に表示する。これによって、表示制御部114は、表示部120にすでに表示されている画像を他の画像に切り替える処理を行う。以上のような処理によって、似たような操作で、表第2画像を表示するか、表示切り替えを行うかの二通りの処理が行われるので、ユーザの利便性が高まる。
As described above, the
また、いわゆるマルチタッチに対応したタッチパネルであれば、画面上で指定した2点によって領域を指定することができる。これにより、例えば、図13(b)に示すように、画面上での手指タッチによって指定された2点間を対角線とした矩形の領域を領域ARとして設定することができる。 In addition, in the case of a touch panel that supports so-called multi-touch, an area can be designated by two points designated on the screen. Thereby, for example, as shown in FIG. 13B, a rectangular area having a diagonal line between two points designated by finger touch on the screen can be set as the area AR.
このような手指タッチで指定される領域ARは、指定された2点で規定される矩形領域とすることができる他、例えば、タッチパネル上での手指移動の軌跡を示す形状としてもよい。この場合、タッチパネル上でなぞった部分のみが変換画像となるように表示制御することができる。 The area AR designated by such a finger touch can be a rectangular area defined by the designated two points, or may have a shape indicating a trajectory of finger movement on the touch panel, for example. In this case, display control can be performed so that only the part traced on the touch panel becomes a converted image.
すなわち、表示パネル(表示部120)に表示されている画像への直接的なタッチにより、元画像と変換画像の比較や画像処理効果の確認などをより直感的におこなうことができる。 That is, by directly touching the image displayed on the display panel (display unit 120), comparison between the original image and the converted image, confirmation of the image processing effect, and the like can be performed more intuitively.
(変形例)
上記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
(Modification)
The said embodiment is an example and the application range of this invention is not restricted to this. That is, various applications are possible, and all embodiments are included in the scope of the present invention.
例えば、上記実施形態で例示したタッチセンサの検出方式、形状やサイズ、配置位置などは一例であり、上述した各処理にかかる動作を実現できる検出がおこなえるのであれば任意のタッチセンサとすることができる。 For example, the detection method, shape, size, arrangement position, and the like of the touch sensor exemplified in the above embodiment are merely examples, and any touch sensor may be used as long as it can perform detection capable of realizing the operations related to each process described above. it can.
また、上記実施形態で例示した「表示変更処理(2)」(図6)では、タッチ時間に応じて画像処理のパラメータを異ならせるものとしたが、例えば、実施形態1のように、タッチ強度(接触操作における押圧力)を検出できるタッチセンサを用いているのであれば、検出されたタッチ強度に応じて画像処理のパラメータを変更してもよい。また、このような処理は、実施形態2においても適用できる。また、当然、タッチ強度に応じて画風の種類を変更させてもよい。 Further, in the “display change process (2)” (FIG. 6) illustrated in the above embodiment, the image processing parameters are varied according to the touch time. If a touch sensor capable of detecting (pressing force in the contact operation) is used, the image processing parameters may be changed according to the detected touch intensity. Such processing can also be applied to the second embodiment. Naturally, the style of the style may be changed according to the touch intensity.
また、上記実施形態では、タッチセンサ上での手指スライドの方向に応じて処理をおこなう例を示したが、方向だけでなく、例えば、スライドのスピードを検出し、検出されたスピードに応じた処理をおこなうようにしてもよい。 Moreover, although the example which performs a process according to the direction of the finger slide on a touch sensor was shown in the said embodiment, not only a direction but the speed of a slide is detected and the process according to the detected speed is shown, for example. You may make it perform.
上記のようなセンサ部によって検知する接触操作の内容(上記の押圧力、スライドのスピード等)に応じて、変換画像の画風の変更の度合いを変化させるか又は画風の種類の変更することによっても、ユーザは画風の変化又は画風の表現方法の変更について確認することができる。又は、ユーザは画風の変化又は画風の表現方法の変更についてスライド動作等で確認することができる。 Depending on the content of the contact operation detected by the sensor unit as described above (the above-mentioned pressing force, slide speed, etc.), the degree of change in the style of the converted image or the type of style can be changed. The user can confirm the change of the style or the change of the style of expression. Alternatively, the user can check the change in the style or the change in the style of expression by a slide operation or the like.
なお、上記実施形態では、タッチセンサが手指によるタッチを検出するものとしたが、これに限られるものではなく、例えば、スタイラスペンなどを用いたタッチを検出することで上記各処理をおこなってもよい。 In the above-described embodiment, the touch sensor detects a touch with a finger. However, the present invention is not limited to this. For example, even if each process is performed by detecting a touch using a stylus pen or the like. Good.
また、上記では、画像処理が画風を変更する処理である場合を説明したが、画像処理は、明るさ補正、赤目補正等の補正処理等の他の画像処理であってもよい。この場合、画像処理の度合いの性質は上記同様である。画像処理の度合いは、ここでは、例えば、補正処理等で用いられるパラメータ(明るさを規定する数値等からなる)等になる。 In the above description, the case where the image processing is processing for changing the style has been described. However, the image processing may be other image processing such as correction processing such as brightness correction and red-eye correction. In this case, the nature of the degree of image processing is the same as described above. Here, the degree of image processing is, for example, a parameter (consisting of a numerical value that defines brightness) or the like used in correction processing or the like.
なお、上記実施形態のデジタルフォトフレーム100と同様の機能や構成を予め備えた表示制御装置によって本発明を実現できることはもとより、既存の表示制御装置(デジタルフォトフレームなど)にプログラムを適用することで、本発明にかかる表示制御装置として機能させることもできる。この場合、上記実施形態で例示したデジタルフォトフレーム100が有するタッチセンサ(センサ部130)と同様の構成を備えた表示制御装置のコンピュータ(CPUなどの制御部)に、上述した制御部110の機能と同様の機能を実現させるためのプログラムを実行させることで、本発明にかかる表示制御装置として機能させることができる。
It should be noted that the present invention can be realized by a display control device having the same functions and configurations as those of the
なお、上記実施形態では、表示制御装置の例として、デジタルフォトフレームを示したが、上記実施形態で例示したタッチセンサ(センサ部130)と同様の構成を備えているものであれば表示制御装置の形態は任意であり、例えば、デジタルカメラやパーソナルコンピュータなどで本発明にかかる表示制御装置を実現することもできる。 In the above embodiment, a digital photo frame is shown as an example of the display control device, but any display control device having the same configuration as the touch sensor (sensor unit 130) illustrated in the above embodiment may be used. The display control apparatus according to the present invention can be realized by, for example, a digital camera or a personal computer.
いずれの場合でも、プログラムを適用することで、既存の装置を本発明にかかる表示制御装置として機能させることができる。このようなプログラムの適用方法は任意であり、例えば、CD−ROM、メモリカード、RAM、ROM等の記憶媒体に格納して適用できる他、例えば、インターネットなどの通信媒体を介して適用することもできる。 In any case, by applying the program, it is possible to make an existing device function as the display control device according to the present invention. The application method of such a program is arbitrary. For example, the program can be applied by being stored in a storage medium such as a CD-ROM, a memory card, a RAM, and a ROM, or can be applied via a communication medium such as the Internet. it can.
100…デジタルフォトフレーム、110…制御部、111…画像データ取得部、112…領域設定部、113…センサ制御部、114…表示制御部、120…表示部、130…センサ部、140…操作部、150…I/F部、160…記憶部、AR…領域、PR…領域
DESCRIPTION OF
Claims (8)
第1画像を表す画像データを取得する画像データ取得手段と、
前記画像データ取得手段が取得した前記画像データが表す前記第1画像における第1領域と第2領域とを、前記センサ制御手段が検出した前記接触位置に応じて設定する領域設定手段と、
前記画像データ取得手段が取得した前記画像データと前記領域設定手段が設定した前記第1領域及び前記第2領域とに基づいて、前記画像データが表す前記第1画像の前記第1領域に画像処理を施した第2画像を生成し、生成した前記第2画像を前記表示部に表示する表示制御手段と、を備え、
前記第1領域と前記第2領域とは、所定方向に沿って隣り合っており、
前記領域設定手段は、前記センサ制御手段によって検出した接触位置が移動すると前記第1領域と前記第2領域との境界を前記接触位置の移動に応じて移動させる、
ことを特徴とする表示制御装置。 Sensor control means for detecting a contact position, which is a position where the user performs a contact operation in the sensor unit, with a sensor unit for detecting a contact operation from a user;
Image data acquisition means for acquiring image data representing the first image;
Area setting means for setting the first area and the second area in the first image represented by the image data acquired by the image data acquisition means according to the contact position detected by the sensor control means;
Based on the image data acquired by the image data acquisition means and the first area and the second area set by the area setting means, image processing is performed on the first area of the first image represented by the image data. Display control means for generating a second image subjected to the above and displaying the generated second image on the display unit,
The first region and the second region are adjacent to each other along a predetermined direction,
The area setting means moves the boundary between the first area and the second area according to the movement of the contact position when the contact position detected by the sensor control means moves.
A display control device characterized by that.
ことを特徴とする請求項1に記載の表示制御装置。 The sensor unit includes at least one touch sensor parallel to at least one direction of the display screen of the display unit,
The display control apparatus according to claim 1.
ことを特徴とする請求項1又は2に記載の表示制御装置。 The display control means changes the degree of the image processing for the first area or changes the type of the image processing for the first area according to the reciprocal movement of the contact position detected by the sensor control means. Let
The display control apparatus according to claim 1, wherein the display control apparatus is a display control apparatus.
ことを特徴とする請求項1乃至3のいずれか1項に記載の表示制御装置。 The display control means changes the degree of the image processing for the first area or changes the type of the image processing for the first area according to a period during which the contact position detected by the sensor control means does not change. To change,
The display control device according to claim 1, wherein the display control device is a display control device.
前記表示制御手段は、前記センサ制御手段が検出した前記接触操作の内容に応じて、前記第1領域に対する前記画像処理の度合いを変化させるか又は前記第1領域に対する前記画像処理の種類を変更させる、
ことを特徴とする請求項1乃至4のいずれか1項に記載の表示制御装置。 The sensor control means further detects the content of the contact operation by the sensor unit,
The display control unit changes the degree of the image processing for the first region or changes the type of the image processing for the first region according to the content of the contact operation detected by the sensor control unit. ,
The display control apparatus according to claim 1, wherein the display control apparatus is a display control apparatus.
ことを特徴とする請求項5に記載の表示制御装置。 The content of the contact operation is a pressing force in the contact operation.
The display control apparatus according to claim 5.
前記画像データ取得手段は、取得した前記画像データとは異なる他の画像データを取得し、
前記表示制御手段は、前記接触面積の大きさが所定の基準を満たす場合に、前記第2画像を前記表示部に表示する処理を行い、前記接触面積の大きさが所定の基準を満たさない場合に、前記画像データ取得手段が取得した前記他の画像データに基づいて、前記他の画像データが表す他の画像を前記表示部に表示することで、前記表示部にすでに表示されている画像を前記他の画像に切り替える処理を行う、
ことを特徴とする請求項1乃至6のいずれか1項に記載の表示制御装置。 The sensor control means detects a contact area by the contact operation to the sensor unit,
The image data acquisition means acquires other image data different from the acquired image data;
The display control means performs a process of displaying the second image on the display unit when the size of the contact area satisfies a predetermined criterion, and the size of the contact area does not satisfy the predetermined criterion. In addition, based on the other image data acquired by the image data acquisition unit, another image represented by the other image data is displayed on the display unit, so that an image already displayed on the display unit is displayed. A process of switching to the other image,
The display control apparatus according to claim 1, wherein the display control apparatus is a display control apparatus.
ユーザからの接触操作を検出するためのセンサ部によって、前記センサ部における前記ユーザが接触操作した位置である接触位置を検出するセンサ制御手段と、
第1画像を表す画像データを取得する画像データ取得手段と、
前記画像データ取得手段が取得した前記画像データが表す前記第1画像における第1領域と第2領域とを、前記センサ制御手段が検出した前記接触位置に応じて設定する領域設定手段と、
前記画像データ取得手段が取得した前記画像データと前記領域設定手段が設定した前記第1領域及び前記第2領域とに基づいて、前記画像データが表す前記第1画像の前記第1領域に画像処理を施した第2画像を生成し、生成した前記第2画像を前記表示部に表示する表示制御手段と、として機能させ、
前記第1領域と前記第2領域とは、所定方向に沿って隣り合っており、
前記領域設定手段は、前記センサ制御手段によって検出した接触位置が移動すると前記第1領域と前記第2領域との境界を前記接触位置の移動に応じて移動させる、
ことを特徴とする表示制御プログラム。 On the computer,
Sensor control means for detecting a contact position, which is a position where the user performs a contact operation in the sensor unit, with a sensor unit for detecting a contact operation from a user;
Image data acquisition means for acquiring image data representing the first image;
Area setting means for setting the first area and the second area in the first image represented by the image data acquired by the image data acquisition means according to the contact position detected by the sensor control means;
Based on the image data acquired by the image data acquisition means and the first area and the second area set by the area setting means, image processing is performed on the first area of the first image represented by the image data. And a display control means for displaying the generated second image on the display unit,
The first region and the second region are adjacent to each other along a predetermined direction,
The area setting means moves the boundary between the first area and the second area according to the movement of the contact position when the contact position detected by the sensor control means moves.
A display control program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010015582A JP2011154533A (en) | 2010-01-27 | 2010-01-27 | Device and program for controlling display |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010015582A JP2011154533A (en) | 2010-01-27 | 2010-01-27 | Device and program for controlling display |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011154533A true JP2011154533A (en) | 2011-08-11 |
Family
ID=44540446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010015582A Pending JP2011154533A (en) | 2010-01-27 | 2010-01-27 | Device and program for controlling display |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011154533A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013097798A (en) * | 2011-10-27 | 2013-05-20 | Samsung Electronics Co Ltd | System and method for identifying type of input to mobile device with touch panel |
JP2015024337A (en) * | 2014-11-07 | 2015-02-05 | 株式会社ユニバーサルエンターテインメント | Game machine |
JP2015088085A (en) * | 2013-11-01 | 2015-05-07 | シャープ株式会社 | Display device and display method |
JP2016052092A (en) * | 2014-09-02 | 2016-04-11 | カシオ計算機株式会社 | Imaging device, image processing device, display control device, image correction method and program |
JP2016186824A (en) * | 2016-08-02 | 2016-10-27 | カシオ計算機株式会社 | Information processing apparatus and program |
CN107731198A (en) * | 2016-08-12 | 2018-02-23 | 精工爱普生株式会社 | The control method of display device and display device |
JP2020174237A (en) * | 2019-04-08 | 2020-10-22 | 凸版印刷株式会社 | Print reproduction color simulation system, print reproduction color simulation method, and program |
-
2010
- 2010-01-27 JP JP2010015582A patent/JP2011154533A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013097798A (en) * | 2011-10-27 | 2013-05-20 | Samsung Electronics Co Ltd | System and method for identifying type of input to mobile device with touch panel |
US9495095B2 (en) | 2011-10-27 | 2016-11-15 | Samsung Electronics Co., Ltd. | System and method for identifying inputs input to mobile device with touch panel |
JP2015088085A (en) * | 2013-11-01 | 2015-05-07 | シャープ株式会社 | Display device and display method |
JP2016052092A (en) * | 2014-09-02 | 2016-04-11 | カシオ計算機株式会社 | Imaging device, image processing device, display control device, image correction method and program |
JP2015024337A (en) * | 2014-11-07 | 2015-02-05 | 株式会社ユニバーサルエンターテインメント | Game machine |
JP2016186824A (en) * | 2016-08-02 | 2016-10-27 | カシオ計算機株式会社 | Information processing apparatus and program |
CN107731198A (en) * | 2016-08-12 | 2018-02-23 | 精工爱普生株式会社 | The control method of display device and display device |
CN107731198B (en) * | 2016-08-12 | 2022-07-01 | 精工爱普生株式会社 | Display device and control method of display device |
JP2020174237A (en) * | 2019-04-08 | 2020-10-22 | 凸版印刷株式会社 | Print reproduction color simulation system, print reproduction color simulation method, and program |
JP7238559B2 (en) | 2019-04-08 | 2023-03-14 | 凸版印刷株式会社 | PRINT REPRODUCTION COLOR SIMULATION SYSTEM, PRINT REPRODUCTION COLOR SIMULATION METHOD AND PROGRAM |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9076085B2 (en) | Image processing apparatus, image processing apparatus control method, and storage medium | |
JP2011154533A (en) | Device and program for controlling display | |
JP5658552B2 (en) | Display control apparatus, control method therefor, program, and recording medium | |
WO2019020052A1 (en) | Photography method and mobile terminal | |
US9900450B2 (en) | Image forming apparatus, method of controlling the same, and recording medium | |
US11435870B2 (en) | Input/output controller and input/output control program | |
CN102148917B (en) | Display processing apparatus | |
US20210208749A1 (en) | Non-transitory computer readable medium storing program for adding new icons to a display | |
JP6004756B2 (en) | Display control apparatus and control method thereof | |
CN104243749B (en) | The control method of image processing system and image processing system | |
JP6210474B2 (en) | Photo sticker creating apparatus, photo sticker creating apparatus control method, and photo sticker creating apparatus control program | |
US9195311B2 (en) | Imaging device, imaging method, and program with flick gesture to acquire an image | |
JP2012213019A (en) | Image processing apparatus, image processing method, and program | |
JP5639384B2 (en) | Display device and program | |
US20170038953A1 (en) | Display apparatus and display method for displaying main data and data related to that main data, and a memory medium | |
EP2735955B1 (en) | Method and system for selecting a digital object on a user interface screen | |
JP6700749B2 (en) | Information processing apparatus, control method of information processing apparatus, and program | |
JP6437299B2 (en) | Information processing apparatus, information processing program, and information processing method | |
US10921704B2 (en) | Method for controlling projection content and electronic device | |
JP2007168156A (en) | Printer and its display method | |
JP4648217B2 (en) | Image device, method of selecting processed image | |
KR20140016822A (en) | Information terminal having touch screens, control method therefor, and storage medium | |
JP5402764B2 (en) | Display device, display method, and program | |
JP5491466B2 (en) | Editing apparatus control method, program, and photographing apparatus | |
JP2018194801A (en) | Display, display method, and program |