JP5800216B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP5800216B2
JP5800216B2 JP2011105256A JP2011105256A JP5800216B2 JP 5800216 B2 JP5800216 B2 JP 5800216B2 JP 2011105256 A JP2011105256 A JP 2011105256A JP 2011105256 A JP2011105256 A JP 2011105256A JP 5800216 B2 JP5800216 B2 JP 5800216B2
Authority
JP
Japan
Prior art keywords
image
style
user
input operation
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011105256A
Other languages
Japanese (ja)
Other versions
JP2012238086A (en
Inventor
良尚 松本
良尚 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011105256A priority Critical patent/JP5800216B2/en
Publication of JP2012238086A publication Critical patent/JP2012238086A/en
Application granted granted Critical
Publication of JP5800216B2 publication Critical patent/JP5800216B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、写真画像を任意の絵画風画像に変換する画像処理装置、画像処理方法および該画像処理装置を機能させるための画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program for causing the image processing apparatus to function.

近年、携帯電話機やデジタルカメラ、インターネット等の普及により、各種のデジタル画像の入手が容易になり、それらの表示方法が多様化している。例えば携帯電話機やデジタルカメラのディスプレイや、パーソナルコンピュータのモニター、デジタルフォトフレームの表示部に、上記デジタル画像をそのまま表示する手法や、スライドショー形式で表示する手法が知られている。さらに、近年においては、デジタル画像として入手した写真画像を任意の絵画風や画風に変換して表示する手法も知られており、これにより、ユーザを楽しませることができる効果的で趣向を凝らしたデジタル画像の表示方法が提供されている。   In recent years, with the widespread use of mobile phones, digital cameras, the Internet, etc., various digital images can be easily obtained, and their display methods are diversified. For example, a method of displaying the digital image as it is on a display of a mobile phone or a digital camera, a monitor of a personal computer, or a display unit of a digital photo frame, or a method of displaying in a slide show format is known. Furthermore, in recent years, there is also known a method of displaying a photographic image obtained as a digital image after converting it into an arbitrary painting style or painting style, which makes it possible to entertain the user with an effective and ingenious manner. A method for displaying a digital image is provided.

ここで、上述したような写真画像の絵画風画像への変換方法としては、例えば特許文献1に記載されているように、画家の描いた絵画に見られる特徴を擬似的に再現した絵画風画像を作成する画調変換方法が知られている。この画調変換方法は、具体的には、まず、変換処理のための入力情報として、処理対象となる原画像である写真画像に加え、実際の画家が描いた絵画の画像を入力し、当該画家の画像から色彩情報と筆触情報を抽出して解析する。そして、解析した情報をもとに原画像の色彩を疑似化させ、筆触を配置することにより、当該画家の描いた絵画に見られる特徴を有する絵画風画像が生成されるものである。   Here, as a method for converting a photographic image into a painting-like image as described above, for example, as described in Patent Document 1, a painting-like image in which the characteristics seen in a painting drawn by a painter are simulated. There is known a method for converting the tone of an image. Specifically, this image tone conversion method first inputs, as input information for conversion processing, an image of a picture drawn by an actual painter in addition to a photographic image that is an original image to be processed, Extract and analyze color information and brushstroke information from the artist's image. Then, based on the analyzed information, the color of the original image is simulated and a brush stroke is arranged to generate a painting-like image having characteristics seen in the painting drawn by the painter.

特開2004−213598号公報JP 2004-213598 A

上述した特許文献1に記載された画調変換方法においては、ユーザが予め入力した画家画像の解析情報に基づいて、原画像の色彩を疑似化させ、筆触を配置することにより、画家画像に疑似させた絵画風画像が生成されるものである。しかしながら、この画調変換方法においては、疑似させたい絵画の特徴(画風)は1つしかなく、複数の画風から1つを選択して、原画像を当該選択された画風に変換した絵画風画像を生成することができるものではなかった。すなわち、絵画風画像の作成にユーザが関与することができず、ユーザは、単に完成された絵画風画像を鑑賞することができるに過ぎなかった。そのため、上述した画調変換方法においては、ユーザの画像変換に対する興味を高めることができず、興趣性において不十分なものであった。   In the above-described image tone conversion method described in Patent Document 1, the color of the original image is simulated based on the analysis information of the painter image input in advance by the user, and the touch is arranged to simulate the painter image. A picture-like image is generated. However, in this style conversion method, there is only one feature (style) of a picture to be simulated, and a picture-like image obtained by selecting one of a plurality of styles and converting the original image into the selected style. Could not produce. That is, the user cannot be involved in creating a painting-like image, and the user can simply appreciate the completed painting-like image. Therefore, in the above-described image tone conversion method, the user's interest in image conversion cannot be increased, and the interest is not sufficient.

そこで、本発明は、上述した問題点に鑑み、ユーザの直感的な動作に応じて、複数の画風から任意の画風を選択して、原画像を当該画風に変換した絵画風画像を生成することにより、ユーザの画像変換に対する興味を高めることができる画像処理装置、画像処理方法および該画像処理装置を機能させるための画像処理プログラムを提供することを目的とする。   Therefore, in view of the above-described problems, the present invention generates a painting-like image by selecting an arbitrary style from a plurality of styles and converting the original image into the style according to the intuitive operation of the user. Accordingly, an object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program for causing the image processing apparatus to function, which can increase the user's interest in image conversion.

本発明に係る画像処理装置は、
原画像データを記憶する原画像記憶手段と、
ユーザの入力動作の程度に従って決定された変数値に応じて、複数の画風の中から1つの画風を選択する画風選択手段と、
前記画風選択手段によって選択された前記1つの画風となるように前記原画像を変換して、変換画像を生成する画像変換手段と、を備え、
前記変数値は、前記ユーザの入力動作の速さ、前記ユーザの入力動作の持続時間、および、前記ユーザの入力動作の強さのうちの少なくとも一つを規定するものであることを特徴とする。
An image processing apparatus according to the present invention includes:
Original image storage means for storing original image data;
Style selection means for selecting one style from among a plurality of styles according to a variable value determined according to the degree of user input operation ;
Image conversion means for converting the original image so as to be the one style selected by the style selection means, and generating a converted image,
The variable value defines at least one of a speed of the user input operation, a duration of the user input operation, and a strength of the user input operation. .

本発明に係る画像処理方法は、
原画像を変換して、変換画像を生成する画像処理方法において、
ユーザの入力動作の程度を規定する変数の値を決定する変数値決定処理と、
決定された前記変数値に応じて、複数の画風の中から1つの画風を選択する画風選択処理と、
選択された前記1つの画風となるように前記原画像を変換して、前記変換画像を生成する画像変換処理と、
を含み、
前記変数値は、前記ユーザの入力動作の速さ、前記ユーザの入力動作の持続時間、および、前記ユーザの入力動作の強さのうちの少なくとも一つを規定するものであることを特徴とする。
An image processing method according to the present invention includes:
In an image processing method for converting an original image and generating a converted image,
A variable value determination process that determines the value of a variable that defines the degree of user input action;
Style selection processing for selecting one style from a plurality of styles according to the determined variable value ;
An image conversion process for generating the converted image by converting the original image so as to have the selected one style ;
Including
The variable value defines at least one of a speed of the user input operation, a duration of the user input operation, and a strength of the user input operation. .

本発明に係る画像処理プログラムは、
コンピュータに画像処理装置を制御させて、原画像を変換して、変換画像を生成する画像処理プログラムであって、
ユーザの入力動作の程度を規定する変数の値を決定する変数値決定処理と、
決定された前記変数値に応じて、複数の画風の中から1つの画風を選択する画風選択処理と、
選択された前記1つの画風となるように前記原画像を変換して、前記変換画像を生成する画像変換処理と、
を実行させ、
前記変数値は、前記ユーザの入力動作の速さ、前記ユーザの入力動作の持続時間、および、前記ユーザの入力動作の強さのうちの少なくとも一つを規定するものであることを特徴とする。
An image processing program according to the present invention includes:
An image processing program for causing a computer to control an image processing apparatus, converting an original image, and generating a converted image,
A variable value determination process that determines the value of a variable that defines the degree of user input action;
Style selection processing for selecting one style from a plurality of styles according to the determined variable value ;
An image conversion process for generating the converted image by converting the original image so as to have the selected one style ;
And execute
The variable value defines at least one of a speed of the user input operation, a duration of the user input operation, and a strength of the user input operation. .

本発明によれば、ユーザの直感的な動作に応じて、複数の画風から任意の画風を選択して、原画像を当該画風に変換した絵画風画像を生成することにより、ユーザの画像変換に対する興味を高めることができる。   According to the present invention, an arbitrary style is selected from a plurality of styles according to the intuitive operation of the user, and a painting style image obtained by converting the original image into the style is generated. Increase interest.

本発明に係る画像処理装置を適用した画像表示装置の第1の実施形態のハードウェア構成を示す概略ブロック図である。It is a schematic block diagram which shows the hardware constitutions of 1st Embodiment of the image display apparatus to which the image processing apparatus which concerns on this invention is applied. 第1の実施形態に係る画像処理方法に適用される画像変換処理を示すフローチャートである。It is a flowchart which shows the image conversion process applied to the image processing method which concerns on 1st Embodiment. 第1の実施形態に係る画像変換処理に関連する操作方法および画像表示状態の一例を示す概略説明図である。It is a schematic explanatory drawing which shows an example of the operation method relevant to the image conversion process which concerns on 1st Embodiment, and an image display state. 第1の実施形態に係る画像変換処理に関連する領域指定方法の他の例を示す概略説明図である。It is a schematic explanatory drawing which shows the other example of the area | region designation | designated method relevant to the image conversion process which concerns on 1st Embodiment. 第2の実施形態に係る画像処理方法に適用される画像変換処理を示すフローチャートである。It is a flowchart which shows the image conversion process applied to the image processing method which concerns on 2nd Embodiment. 第2の実施形態に係る画像変換処理に関連する領域指定方法および画像表示状態の一例を示す概略説明図である。It is a schematic explanatory drawing which shows an example of the area | region designation | designated method and image display state relevant to the image conversion process which concerns on 2nd Embodiment. 第3の実施形態に係る画像処理方法に適用される画像変換処理を示すフローチャートである。It is a flowchart which shows the image conversion process applied to the image processing method which concerns on 3rd Embodiment. 第3の実施形態に係る画像変換処理に関連する領域指定方法の一例を示す概略説明図である。It is a schematic explanatory drawing which shows an example of the area | region designation | designated method relevant to the image conversion process which concerns on 3rd Embodiment. 第4の実施形態に係る画像変換処理に関連する領域指定方法および画像表示状態の他の例を示す概略説明図である。It is a schematic explanatory drawing which shows the other example of the area | region designation | designated method and image display state relevant to the image conversion process which concerns on 4th Embodiment. 本発明の第5の実施形態に係る画像表示装置のハードウェア構成を示す概略ブロック図である。It is a schematic block diagram which shows the hardware constitutions of the image display apparatus which concerns on the 5th Embodiment of this invention. 本発明に係る画像処理装置を適用した画像表示装置を搭載した電子機器の構成例を示す概略図(その1)である。It is the schematic (the 1) which shows the structural example of the electronic device carrying the image display apparatus to which the image processing apparatus which concerns on this invention is applied. 本発明に係る画像処理装置を適用した画像表示装置を搭載した電子機器の構成例を示す概略図(その2)である。It is the schematic (the 2) which shows the structural example of the electronic device carrying the image display apparatus to which the image processing apparatus which concerns on this invention is applied.

以下、本発明に係る画像処理装置、画像処理方法および画像処理プログラムについて、実施形態を示して詳しく説明する。
<第1の実施形態>
(画像処理装置/画像表示装置)
まず、本発明に係る画像処理装置を適用した画像表示装置のハードウェア構成について説明する。
Hereinafter, an image processing apparatus, an image processing method, and an image processing program according to the present invention will be described in detail with reference to embodiments.
<First Embodiment>
(Image processing device / image display device)
First, a hardware configuration of an image display apparatus to which the image processing apparatus according to the present invention is applied will be described.

図1は、本発明に係る画像処理装置を適用した画像表示装置の第1の実施形態のハードウェア構成を示す概略ブロック図である。なお、図1においては、図示の都合上、機能ブロック間の信号やデータのやりとりを表す矢印を全て示したが、実際には、これらのうちいずれかが単独で、もしくは、複数が有効となって所定の処理が実行される。   FIG. 1 is a schematic block diagram showing a hardware configuration of a first embodiment of an image display apparatus to which an image processing apparatus according to the present invention is applied. In FIG. 1, for the sake of illustration, all the arrows indicating the exchange of signals and data between functional blocks are shown. However, in actuality, any one of these or a plurality of them is effective. Predetermined processing is executed.

図1に示すように、本実施形態に係る画像表示装置10は、データ処理部(画像変換手段)20と、ユーザインタフェース部(以下、ユーザI/F部と記す)30と、を備えている。データ処理部20は、概略、中央演算処理装置(Central Processing Unit;以下、CPUと記す:変数値決定手段、画風選択手段)21と、読み出し専用メモリ(Read Only Memory;以下、ROMと記す)22と、ランダムアクセスメモリ(Random
Access Memory;以下、RAMと記す)23と、内部メモリ(原画像記憶手段)24と、表示制御部25と、画像処理部26と、を備えている。
As shown in FIG. 1, the image display apparatus 10 according to the present embodiment includes a data processing unit (image conversion unit) 20 and a user interface unit (hereinafter referred to as a user I / F unit) 30. . The data processing unit 20 includes a central processing unit (Central Processing Unit; hereinafter referred to as CPU: variable value determination means, style selection means) 21 and a read only memory (hereinafter referred to as ROM) 22. And random access memory (Random
Access Memory (hereinafter referred to as RAM) 23, internal memory (original image storage means) 24, display control unit 25, and image processing unit 26.

また、ユーザI/F部30は、概略、液晶表示パネル等からなる表示部(表示手段)31と、操作スイッチ等からなり、ユーザの指示操作を受け付ける操作部32と、タッチパネルからなり、特にユーザの直感的(又は感覚的)な動作に対応する指示操作を受け付ける入力部(位置検出手段)33と、外部機器との間での通信を制御する通信部(通信手段)34と、画像データが記憶されたメモリカード等のリムーバブル記憶媒体40に対してデータの読み書きを行うメモリインタフェース部(以下、メモリI/F部と記す)35と、を備えている。   The user I / F unit 30 includes a display unit (display unit) 31 including a liquid crystal display panel, an operation switch, and the like. The user I / F unit 30 includes an operation unit 32 that receives a user instruction operation and a touch panel. An input unit (position detection unit) 33 that receives an instruction operation corresponding to an intuitive (or sensory) operation, a communication unit (communication unit) 34 that controls communication with an external device, and image data And a memory interface unit (hereinafter referred to as a memory I / F unit) 35 that reads and writes data from and on a removable storage medium 40 such as a stored memory card.

ROM22には、例えば、後述する画像変換処理を含む、画像の表示、再生に関する各種処理、および、表示制御部25、画像処理部26、表示部31、操作部32、入力部33、通信部34、メモリI/F部35を含む各種機能を実行するための各種プログラム(ソフトウェア)が記憶されている。CPU21は、ROM22に記憶されているプログラムに従って処理を行うことにより、表示制御部25、画像処理部26、表示部31、操作部32、入力部33、通信部34、メモリI/F部35等における各種機能が実現される。特に、本実施形態においては、CPU21がROM22に記憶されている画像変換処理を実行するためのプログラムを読み出して実行することにより、画像処理部26において原画像の画像データに対して、後述する入力部33を介して入力されるユーザの直感的な動作に応じて決定される特定の画風で画像変換処理が実行される。   The ROM 22 includes, for example, various processes related to image display and reproduction, including an image conversion process described later, a display control unit 25, an image processing unit 26, a display unit 31, an operation unit 32, an input unit 33, and a communication unit 34. In addition, various programs (software) for executing various functions including the memory I / F unit 35 are stored. The CPU 21 performs processing according to a program stored in the ROM 22 to thereby display the display control unit 25, the image processing unit 26, the display unit 31, the operation unit 32, the input unit 33, the communication unit 34, the memory I / F unit 35, and the like. Various functions are realized. In particular, in the present embodiment, the CPU 21 reads out and executes a program for executing the image conversion process stored in the ROM 22, whereby the image processing unit 26 inputs input data to be described later with respect to the image data of the original image. The image conversion process is executed in a specific style determined according to the intuitive operation of the user input via the unit 33.

RAM23には、CPU21が各種の処理を実行する上で必要なデータ等が適宜記憶される。例えば後述する画像変換処理の対象となる原画像や、当該画像変換処理により生成された絵画風画像(変換画像)の画像データは、RAM23に記憶される。内部メモリ24は、ダイナミックRAM(Dynamic Random Access Memory;以下、DRAMと記す)やROM等により構成される。DRAMは、後述する画像変換処理により生成された画像データが一時的に記憶される表示バッファを構成するとともに、CPU21の作業領域を構成する。ROMには、例えば後述する画像変換処理や、画像の表示、再生に関する各種パラメータ等が記憶される。なお、内部メモリ24には、メモリカード等のリムーバブル記憶媒体40や通信回線等を介して取り込んだ原画像や、画像処理部26により所定の画像変換処理を実行することにより生成された絵画風画像の、画像データの一時保存および読み出しを行うための表示メモリ領域も含まれている。   The RAM 23 appropriately stores data necessary for the CPU 21 to execute various processes. For example, an original image to be subjected to an image conversion process to be described later and image data of a painting-like image (converted image) generated by the image conversion process are stored in the RAM 23. The internal memory 24 includes a dynamic random access memory (hereinafter referred to as DRAM), a ROM, and the like. The DRAM constitutes a display buffer for temporarily storing image data generated by an image conversion process described later, and constitutes a work area for the CPU 21. The ROM stores, for example, various parameters relating to image conversion processing, image display, and reproduction described later. The internal memory 24 stores an original image captured via a removable storage medium 40 such as a memory card or a communication line, or a picture-like image generated by executing a predetermined image conversion process by the image processing unit 26. A display memory area for temporarily storing and reading image data is also included.

表示制御部(表示制御手段)25は、内部メモリ24の表示メモリ領域に格納された画像データを読み出し、当該画像データにより表現される画像を、ユーザI/F部30の表示部31に表示させる制御を実行する。例えば、表示制御部25は、上記内部メモリ24に保存された画像データに基づいてRGB信号を生成し、当該RGB信号を表示部31に供給することにより、原画像や絵画風画像を表示部31に表示させる。   The display control unit (display control unit) 25 reads the image data stored in the display memory area of the internal memory 24 and causes the display unit 31 of the user I / F unit 30 to display an image represented by the image data. Execute control. For example, the display control unit 25 generates an RGB signal based on the image data stored in the internal memory 24 and supplies the RGB signal to the display unit 31, thereby displaying the original image or the painting-like image on the display unit 31. To display.

画像処理部26は、デジタルシグナルプロセッサ(Digital Signal Processor;DSP)等で構成され、内部メモリ24に記憶された画像データに対して、ホワイトバランス補正処理やγ補正処理などの各種画像処理を実行する。加えて、本実施形態においては、画像処理部26は、CPU21からの命令に基づいて、内部メモリ24に一時保存された原画像を、タッチパネル等の入力部33を介して入力されるユーザの直感的又は感覚的な動作を規定する変数(接触移動速度)に応じて、複数の画風から1つの画風を選択して、当該画風からなる絵画風画像に変換する画像変換処理を実行する。   The image processing unit 26 is configured by a digital signal processor (DSP) or the like, and executes various image processing such as white balance correction processing and γ correction processing on the image data stored in the internal memory 24. . In addition, in this embodiment, the image processing unit 26 is based on an instruction from the CPU 21 and the user's intuition when the original image temporarily stored in the internal memory 24 is input via the input unit 33 such as a touch panel. One image style is selected from a plurality of styles according to a variable (contact movement speed) that defines an objective or sensory action, and an image conversion process is performed to convert the picture style image to the style.

ここで、画像処理部26において、原画像を絵画風画像に変換する画像変換処理において選択可能なように予め用意される画風としては、次のような種類の画風を適用することができる。本実施形態においては、例えば油絵調や水彩画調、パステル画調、鉛筆画調、クレヨン画調、イラスト画調、点描画調、エアブラシ画調のような、絵画のジャンルに対応する各画風を適用することができる。また、本実施形態は、これに限定されるものではなく、例えば上記の油絵調をさらに画家の特徴に基づいて、ゴッホ調やモネ調、ピカソ調等の分類に対応する各画風を適用するものであってもよいし、画家の特徴に依存しない、例えば一般的な油絵調の画風の特徴に基づいて、重厚系やゴシック系、野獣派系等の分類に対応する各画風を適用するものであってもよい。このような各画風に変換するための画像変換処理のアルゴリズムに適用される各種パラメータは、例えば内部メモリ24のROMに記憶されている。   Here, the following types of styles can be applied as the styles prepared in advance so as to be selectable in the image conversion process for converting the original image into a picture-like image in the image processing unit 26. In the present embodiment, for example, each painting style corresponding to the genre of painting is applied, such as oil painting style, watercolor painting style, pastel painting style, pencil painting style, crayon painting style, illustration painting style, point drawing style, airbrush painting style. be able to. The present embodiment is not limited to this. For example, the above-described oil painting style is further applied to each style corresponding to the classification such as Van Gogh, Monet, Picasso, etc. based on the characteristics of the painter. It does not depend on the painter's characteristics, for example, it applies each style corresponding to the classification of heavy, gothic, or beast based, for example, based on the characteristics of a general oil painting style. May be. Various parameters applied to the algorithm of the image conversion process for converting into each style are stored in the ROM of the internal memory 24, for example.

また、操作部32は、画像表示装置10の本体に設けられた、電源ボタン、ズームキー、および、メニュー設定キー等の操作スイッチであって、ユーザによる各操作に基づいて所定の操作信号を発生してデータ処理部20のCPU21へ送出する。また、入力部33は、例えば表示部31の表示パネルのユーザ側(視野側)前面に設けられた、透過型のタッチパネルであって、表示部31に表示された原画像に対応する任意の位置を、ユーザがタッチペンや指等(以下、タッチペン等と総称する)を接触させて指示する操作に基づいて所定の操作信号を発生してデータ処理部20のCPU21へ送出する。このように、ユーザが操作部32又は入力部33を操作することにより、各種操作信号がデータ処理部20に送出されて、CPU21は、当該操作信号に応じた処理を実行する。   The operation unit 32 is an operation switch provided on the main body of the image display device 10 such as a power button, a zoom key, and a menu setting key, and generates a predetermined operation signal based on each operation by the user. To the CPU 21 of the data processing unit 20. The input unit 33 is a transmissive touch panel provided on the user side (view side) front of the display panel of the display unit 31, for example, and an arbitrary position corresponding to the original image displayed on the display unit 31. Is generated based on an operation instructed by a user touching a touch pen or a finger (hereinafter collectively referred to as a touch pen or the like) and sent to the CPU 21 of the data processing unit 20. As described above, when the user operates the operation unit 32 or the input unit 33, various operation signals are sent to the data processing unit 20, and the CPU 21 executes processing according to the operation signals.

特に、本実施形態においては、入力部33に適用されるタッチパネルとして、当該入力部33に対するタッチペン等の接触状態(接触又は非接触の二値)および接触位置を検出することができる、既存の位置検出型のタッチパネルや感圧型のタッチパネルが適用される。これにより、ユーザが表示部31に表示された画像を参照しながら、当該画像に対応する位置のタッチパネルにタッチペン等により接触することにより、その接触位置が検出される。この検出された接触位置に関する情報は、操作信号としてCPU21に送出される。   In particular, in the present embodiment, as a touch panel applied to the input unit 33, an existing position that can detect a contact state (a binary value of contact or non-contact) such as a touch pen with respect to the input unit 33 and a contact position. A detection-type touch panel or a pressure-sensitive touch panel is applied. Thereby, the contact position is detected by the user touching the touch panel at a position corresponding to the image with a touch pen or the like while referring to the image displayed on the display unit 31. Information on the detected contact position is sent to the CPU 21 as an operation signal.

また、本実施形態においては、特に画像変換処理に関連する各種の操作が可能なように、操作部32や入力部33が設定されている。例えば、ユーザにより操作部32のメニュー設定キーが操作されて画像変換モードが指定されると、当該操作信号がデータ処理部20に送られ、CPU21は、画像処理部26において後述する画像変換処理を実行する画像変換モードを設定する。なお、画像変換モードの設定は、上記の操作方法のほかに、例えば、表示部31に表示されたメニューアイコンに対応する位置の入力部33をタッチペン等で接触して選択し、さらに画像変換モードのアイコンを選択する手法によるものであってもよい。   In the present embodiment, the operation unit 32 and the input unit 33 are set so that various operations particularly related to the image conversion process are possible. For example, when the user operates the menu setting key of the operation unit 32 to designate the image conversion mode, the operation signal is sent to the data processing unit 20, and the CPU 21 performs image conversion processing described later in the image processing unit 26. Sets the image conversion mode to be executed. In addition to the above operation method, the image conversion mode is set by, for example, selecting the input unit 33 at a position corresponding to the menu icon displayed on the display unit 31 with a touch pen or the like, and further selecting the image conversion mode. It may be based on a method of selecting the icon.

なお、本実施形態においては、データ処理部20への原画像の取込み方法として、メモリI/F部35により制御されるメモリカード等のリムーバブル記憶媒体40を介して取り込むものであってもよいし、通信部34により、図示を省略した通信ケーブルや無線通信、赤外線通信等を介して、例えば携帯電話機やデジタルカメラ、マルチメディア機器、ハードディスク装置等の外部機器、あるいは、インターネット上のサーバ等に保存された画像データを取り込むものであってもよい。   In the present embodiment, as a method of capturing an original image into the data processing unit 20, the original image may be captured via a removable storage medium 40 such as a memory card controlled by the memory I / F unit 35. The communication unit 34 stores the data in an external device such as a mobile phone, a digital camera, a multimedia device, a hard disk device, or a server on the Internet via a communication cable, wireless communication, infrared communication, etc. (not shown). The captured image data may be taken in.

また、本実施形態においては、表示制御部25により生成されたRGB信号は、表示部31に出力させるだけでなく、ユーザI/F部30の通信部34により制御される通信回線や通信ケーブル等を介して、あるいは、メモリI/F部35により制御されるリムーバブル記憶媒体40を介して、図示を省略した外部機器に出力させることもできる。これにより、例えばテレビジョン受像機、パーソナルコンピュータ、デジタルフォトフレーム、プロジェクタ等の外部機器においても、原画像や絵画風画像を表示することができる。   In the present embodiment, the RGB signal generated by the display control unit 25 is not only output to the display unit 31 but also a communication line or communication cable controlled by the communication unit 34 of the user I / F unit 30. Or via a removable storage medium 40 controlled by the memory I / F unit 35 to an external device (not shown). Thereby, an original image and a picture-like image can be displayed also in external devices such as a television receiver, a personal computer, a digital photo frame, and a projector.

(画像処理方法)
次に、本実施形態に係る画像表示装置における画像処理方法について説明する。
ここでは、図1に示したユーザI/F部30に設けられる入力部33が、上述したように、ユーザが表示部31に表示された画像を参照して、直感的又は感覚的にタッチペン等を接触させることにより、当該接触状態および接触位置を検出することができる位置検出型のタッチパネルから構成されている。また、CPU21は、当該位置検出型のタッチパネルからなる入力部33から送出される操作信号(接触情報および位置情報)に基づいて、当該タッチペン等の接触状況を判定するとともに、その接触移動速度に基づいて、画像処理部26において原画像に施す画像変換処理に適用する画風を決定する。
(Image processing method)
Next, an image processing method in the image display apparatus according to the present embodiment will be described.
Here, as described above, the input unit 33 provided in the user I / F unit 30 illustrated in FIG. 1 refers to the image displayed on the display unit 31 by the user, intuitively or intuitively with a touch pen or the like. It is comprised from the position detection type touch panel which can detect the said contact state and contact position by making it contact. Further, the CPU 21 determines the contact status of the touch pen or the like based on an operation signal (contact information and position information) sent from the input unit 33 including the position detection type touch panel, and based on the contact moving speed. Thus, an image style applied to the image conversion process applied to the original image in the image processing unit 26 is determined.

図2は、本実施形態に係る画像処理方法に適用される画像変換処理を示すフローチャートである。また、図3は、本実施形態に係る画像変換処理に関連する操作方法および画像表示状態の一例を示す概略説明図である。なお、図3に示した画像表示状態の一例においては、図示の都合上、画像変換処理された画像(絵画風画像)部分を便宜的に太線を用いて強調して示した。   FIG. 2 is a flowchart showing image conversion processing applied to the image processing method according to the present embodiment. FIG. 3 is a schematic explanatory diagram illustrating an example of an operation method and an image display state related to the image conversion processing according to the present embodiment. In the example of the image display state shown in FIG. 3, for convenience of illustration, the image-converted image (painting-like image) portion is highlighted with a bold line for convenience.

本実施形態に係る画像処理方法は、図2のフローチャートに示すように、まず、ユーザが画像表示装置10の操作部32を操作したり、液晶表示パネル等の表示部31に表示されたアイコンを選択するように入力部33に接触指示することにより、図3(a)に示すように、メニュー画面Pmenから画像変換モードが設定される(ステップS111)。このとき、表示部31には当該画像変換処理の対象となる原画像が、予め表示されていてもよい。また、この画像変換モードにおいては、図3(b)に示すように、画像変換処理により原画像全体(全領域)を特定の画風に変換する設定と、ユーザにより指定された原画像の特定の領域(指定領域)のみを、特定の画風に変換する設定とを、任意に選択できるものであってもよい。   In the image processing method according to the present embodiment, as shown in the flowchart of FIG. 2, first, the user operates the operation unit 32 of the image display device 10 or displays icons displayed on the display unit 31 such as a liquid crystal display panel. By instructing the input unit 33 to make a selection, the image conversion mode is set from the menu screen Pmen as shown in FIG. 3A (step S111). At this time, the display unit 31 may display in advance an original image to be subjected to the image conversion process. In this image conversion mode, as shown in FIG. 3B, a setting for converting the entire original image (all areas) into a specific style by image conversion processing, and a specification of the original image specified by the user. The setting for converting only the area (designated area) into a specific style may be arbitrarily selected.

次いで、図3(c)に示すように、ユーザが表示部31に表示された原画像PHTを参照して、当該表示部31の前面(ユーザ側)に配置されたタッチパネル等の入力部33にタッチペンPEN等を接触させた状態で、直感的又は感覚的に複数回往復動作(図中、矢印ARa参照)させることにより、当該タッチペンPEN等の接触位置に関する情報が検出されて、操作信号としてCPU21に送出される(ステップS112)。CPU21は、当該操作信号に含まれる位置情報と、各位置における時間情報とに基づいて、入力部33に接触されたタッチペンPEN等の接触移動速度を算出する(ステップS113;変数値決定処理)。   Next, as shown in FIG. 3C, the user refers to the original image PHT displayed on the display unit 31, and enters the input unit 33 such as a touch panel disposed on the front surface (user side) of the display unit 31. In a state where the touch pen PEN or the like is in contact with the touch pen PEN or the like, the information about the touch position of the touch pen PEN or the like is detected by performing a reciprocating motion intuitively or sensibly a plurality of times (see the arrow ARa in the drawing), and the CPU 21 detects the operation signal. (Step S112). The CPU 21 calculates the contact movement speed of the touch pen PEN or the like that is in contact with the input unit 33 based on the position information included in the operation signal and the time information at each position (step S113; variable value determination process).

ここで、上記接触移動速度を算出する具体的な手法は、例えば、まず、タッチペンPEN等による入力部33への接触が開始(接触状態が検出)されると同時に、CPU21は時間測定を開始する。このときの入力部33におけるタッチペンPEN等の接触位置に関する情報(位置情報)は、操作信号としてCPU21に送出されて、CPU21において表示部31上の対応する画素の座標に変換されて、上記測定された時間(時間情報)と関連付けて内部メモリ24に保存される。これと同時に、表示制御部25によって、タッチペンPEN等による入力部33への接触位置が、表示部31上の当該接触位置に対応する画素に表示される。ここで、タッチペンPEN等の接触位置の検出動作および時間測定は、上記接触が開始された後、当該接触が終了する(非接触状態が検出される)までの間、常時実行されるものであってもよいし、所定の時間間隔で定期的に実行されるものであってもよい。また、タッチペンPEN等を入力部33に接触させた状態で、任意の方向にタッチペンPEN等を移動させることにより入力部33からCPU21への位置情報に変化が生じた場合には、CPU21は、当該位置情報に対応する表示部31上の座標を算出して、当該タッチペンPEN等の移動長さを計算して内部メモリ24に保存する。なお、タッチペンPEN等による入力部33への接触位置を、表示部31上の当該接触位置に対応する画素に表示を行うというような、表示制御部25による上述の制御は、上記接触が開始された後、当該接触が終了するまでの間、入力部33からCPU21への位置情報に変化が生じる度に実行される。そして、タッチペンPEN等による入力部33への接触が終了した(非接触状態が検出された)場合には、CPU21は、上記時間測定を終了し、内部メモリ24に保存されたタッチペンPEN等の移動長さ(図3(c)中の軌跡LOCに相当する)の合計と、当該測定された接触時間の合計からタッチペンPEN等の接触移動速度(=(移動長さの合計)÷(接触時間の合計))を算出して内部メモリ24に保存する。   Here, as a specific method for calculating the contact moving speed, for example, first, the contact with the input unit 33 by the touch pen PEN or the like is started (contact state is detected), and the CPU 21 starts time measurement. . Information (position information) on the touch position of the touch pen PEN or the like in the input unit 33 at this time is sent to the CPU 21 as an operation signal, converted into the coordinates of the corresponding pixel on the display unit 31 by the CPU 21, and measured as described above. It is stored in the internal memory 24 in association with the specified time (time information). At the same time, the display control unit 25 displays the contact position of the touch pen PEN or the like to the input unit 33 on the pixel corresponding to the contact position on the display unit 31. Here, the detection operation and the time measurement of the contact position of the touch pen PEN or the like are always executed after the contact is started and until the contact ends (a non-contact state is detected). Alternatively, it may be executed periodically at predetermined time intervals. Further, when the position information from the input unit 33 to the CPU 21 is changed by moving the touch pen PEN or the like in an arbitrary direction while the touch pen PEN or the like is in contact with the input unit 33, the CPU 21 The coordinates on the display unit 31 corresponding to the position information are calculated, and the movement length of the touch pen PEN or the like is calculated and stored in the internal memory 24. Note that the above-described control by the display control unit 25, such as displaying the contact position of the touch pen PEN or the like on the input unit 33 on the pixel corresponding to the contact position on the display unit 31, starts the contact. After that, it is executed every time the position information from the input unit 33 to the CPU 21 changes until the contact is completed. When the contact with the input unit 33 by the touch pen PEN or the like is finished (a non-contact state is detected), the CPU 21 finishes the time measurement and moves the touch pen PEN or the like stored in the internal memory 24. From the total of the lengths (corresponding to the locus LOC in FIG. 3C) and the measured contact time, the contact moving speed of the touch pen PEN or the like (= (total of moving lengths) / (contact time Total)) is calculated and stored in the internal memory 24.

次いで、CPU21において、上記算出された接触移動速度が、予め設定された複数の速度範囲のいずれに含まれるかを判定して、当該接触移動速度に応じて特定の画風を設定する。例えば、特定の基準値を境界にして、その基準値以上の第1の速度範囲と、上記基準値よりも小さい第2の速度範囲の2つの速度範囲が設定されている場合、上記算出された接触移動速度が、第1および第2の速度範囲のいずれに含まれるかを判定する(ステップS114)。そして、上記接触移動速度が、第1の速度範囲に含まれる場合には、画像変換処理に適用される第1の画風として、例えば野獣派系の油絵調が設定され(ステップS115)、一方、上記接触移動速度が、第2の速度範囲に含まれる場合には、第2の画風として、例えばパステル画調が設定される(ステップS116)。これにより、CPU21において、上記算出された接触移動速度(すなわち、ユーザの入力動作の程度;本実施形態においてはタッチペンPEN等の往復動作の速さ)に基づいて、複数の画風の中から画像変換処理に適用される1つの画風が選択され、当該画風に応じたパラメータが画像処理部26に設定される(画風選択処理)。   Next, the CPU 21 determines whether the calculated contact movement speed is included in a plurality of preset speed ranges, and sets a specific style according to the contact movement speed. For example, when two speed ranges, a first speed range that is equal to or higher than the reference value and a second speed range that is smaller than the reference value, are set with a specific reference value as a boundary, the above calculation is performed. It is determined whether the contact moving speed is included in the first speed range or the second speed range (step S114). When the contact movement speed is included in the first speed range, for example, a beast-style oil painting tone is set as the first art style applied to the image conversion process (step S115). When the contact movement speed is included in the second speed range, for example, a pastel image tone is set as the second image style (step S116). Thereby, the CPU 21 converts the image from a plurality of styles based on the calculated contact moving speed (that is, the degree of the user's input operation; in this embodiment, the speed of the reciprocating operation of the touch pen PEN or the like). One style applied to the process is selected, and parameters according to the style are set in the image processing unit 26 (style selection process).

次いで、画像処理部26において、上記接触移動速度に応じて設定された画風に基づいて原画像PHTを画像変換処理し、図3(d)、(e)に示すように、上記画風が適用された絵画風画像PICa又はPICbを生成する(ステップS117;画像変換処理)。生成された絵画風画像PICa又はPICbの画像データは、例えば内部メモリ24の所定の表示メモリ領域に一時保存される。ここで、この画像変換処理においては、例えば図3(b)、(c)に示したように、原画像PHTにおいて画像変換処理の対象となる特定の領域(指定領域)SPAを指定する設定においては、図3(d)に示すように、ユーザが入力部33にタッチペンPEN等を接触させた状態で往復動作させた際に指示した領域(すなわち、軌跡LOCに対応した領域や塗りつぶした領域)、又は、当該指示した領域を含む所定の範囲の領域(すなわち、軌跡LOCを基準にして所定の広がりを有する領域)に対応する原画像PHTの指定領域SPAのみが、上記画風が適用された絵画風画像PICaに変換される。   Next, the image processing unit 26 performs image conversion processing on the original image PHT based on the style set according to the contact movement speed, and the style is applied as shown in FIGS. A painting-like image PICa or PICb is generated (step S117; image conversion process). The generated image data of the picture-like image PICa or PICb is temporarily stored in a predetermined display memory area of the internal memory 24, for example. Here, in this image conversion process, for example, as shown in FIGS. 3B and 3C, in a setting for designating a specific area (designated area) SPA to be subjected to the image conversion process in the original image PHT. As shown in FIG. 3D, an area designated when the user reciprocates with the input unit 33 in contact with the touch pen PEN or the like (that is, an area corresponding to the locus LOC or a painted area). Or, only the designated area SPA of the original image PHT corresponding to an area in a predetermined range including the designated area (that is, an area having a predetermined spread with reference to the locus LOC) is a painting to which the above-described style is applied. It is converted into a wind image PICa.

一方、例えば図3(b)に示したように、原画像PHT全体を画像変換の対象とする設定においては、図3(e)に示すように、ユーザがタッチペンPEN等により指示した領域に関わりなく、原画像PHT全体(全領域)が、上記画風が適用された絵画風画像PICbに変換される。次いで、内部メモリ24に一時保存された絵画風画像PICa又はPICbの画像データは、表示制御部25により読み出され、所定の表示信号に変換されて表示部31に表示される(ステップS118)。   On the other hand, for example, as shown in FIG. 3B, in the setting that the entire original image PHT is an object of image conversion, as shown in FIG. 3E, it relates to the area designated by the user with the touch pen PEN or the like. Instead, the entire original image PHT (entire area) is converted into a picture-like image PICb to which the above-mentioned style is applied. Next, the picture-like image PICa or PICb image data temporarily stored in the internal memory 24 is read by the display control unit 25, converted into a predetermined display signal, and displayed on the display unit 31 (step S118).

このように、本実施形態においては、表示された原画像PHTに対する、ユーザの直感的又は感覚的な入力動作の程度(接触移動速度)に応じて、複数の画風から1つの画風を選択して、原画像PHTを当該画風に変換した絵画風画像PICa又はPICbを生成することができる。したがって、本実施形態によれば、ユーザの直感的又は感覚的な入力動作の程度に応じて、絵画風画像に適用される画風を設定するという、新たな画像変換の手法を提示することができるので、ユーザの画像変換に対する興味を高めることができる。   As described above, in the present embodiment, one style is selected from a plurality of styles in accordance with the degree (contact movement speed) of the user's intuitive or sensory input operation with respect to the displayed original image PHT. The painting-like image PICa or PICb obtained by converting the original image PHT into the painting style can be generated. Therefore, according to the present embodiment, it is possible to present a new image conversion technique for setting a style applied to a picture-like image according to the degree of intuitive or sensory input operation of the user. Therefore, the user's interest in image conversion can be increased.

なお、上述した画像変換処理においては、画像変換の対象となる領域を指定する手法として、図3(c)に示したように、ユーザがタッチペンPEN等を接触させた状態で往復動作(矢印ARa)させた際の軌跡LOCからなる領域(指定領域SPA)や塗りつぶした領域、又は、当該軌跡や塗りつぶした領域を基準にして所定の広がりを有する領域を指定領域に設定して、原画像PHTをタッチペンPEN等の接触移動速度に応じた画風に変換する場合について説明した。本発明はこれに限定されるものではなく、次のような領域の指定方法を適用することもできる。   In the above-described image conversion process, as a method for designating a region to be subjected to image conversion, as shown in FIG. 3C, a reciprocating operation (arrow ARa) is performed with the user touching the touch pen PEN or the like. ), The region (designated region SPA) consisting of the locus LOC and the painted region, or a region having a predetermined spread with reference to the locus or the painted region is set as the designated region, and the original image PHT is A case has been described in which the touch pen PEN or the like is converted into an image style corresponding to the contact movement speed. The present invention is not limited to this, and the following area designation method can also be applied.

図4は、本実施形態に係る画像変換処理に関連する領域指定方法の他の例を示す概略説明図である。ここで、説明を明瞭化するため、便宜的に図中の指定領域にハッチングを施して示した。   FIG. 4 is a schematic explanatory diagram illustrating another example of the region specifying method related to the image conversion processing according to the present embodiment. Here, for the sake of clarity, the designated area in the figure is hatched for the sake of convenience.

本実施形態に係る画像変換処理に適用可能な領域指定方法は、上述した手法のほか、図4(a)に示すように、ユーザが表示部31に表示された原画像PHTを参照して、入力部33にタッチペンPEN等を接触させた状態で、任意の領域を閉じた線で円形状や多角形状等に枠囲み(図中、矢印ARb参照)することにより、当該枠囲みした線の軌跡LOCの内側(内部)の領域を、指定領域SPBとして設定するものであってもよい。ここで、指定領域SPBは、タッチペンPEN等による線の軌跡LOCの内側の領域のみに限定されるものではなく、例えば図4(b)に示すように、当該軌跡LOC上の連続する各点LPを中心とする所定半径rの円形領域に含まれる領域(すなわち、連続する幅2rの領域)も、指定領域SPBに設定されるものであってもよい。   In addition to the method described above, the region designation method applicable to the image conversion processing according to the present embodiment refers to the original image PHT displayed on the display unit 31 as shown in FIG. By touching the input unit 33 with a touch pen PEN or the like, an arbitrary region is enclosed by a closed line in a circular shape or a polygonal shape (see arrow ARb in the figure), thereby tracing the line surrounded by the frame. An area inside (inside) the LOC may be set as the designated area SPB. Here, the designated area SPB is not limited to the area inside the locus LOC of the line by the touch pen PEN or the like. For example, as shown in FIG. 4B, each successive point LP on the locus LOC. A region included in a circular region having a predetermined radius r centered at (that is, a region having a continuous width 2r) may also be set in the designated region SPB.

また、さらに他の領域指定方法としては、図4(c)、(d)に示すように、ユーザが表示部31に表示された原画像PHTを参照して、入力部33にタッチペンPEN等を接触させた状態で、任意の領域に対応するように直線状や曲線状等に移動(図中、矢印ARc、ARd参照)させることにより、当該線の軌跡LOC上の連続する各点LPを中心とする所定半径rの円形領域に含まれる領域(すなわち、連続する幅2rの領域)が、指定領域SPC、SPDに設定されるものであってもよい。なお、図4(b)〜(d)に示した領域指定方法におけるタッチペンPEN等による軌跡LOC上の各点LPを中心とする円形領域を規定する半径rは、予め一定の数値に設定されているものであってもよいし、例えば図3(a)、(b)に示したようなメニュー画面において、ユーザが任意の数値に設定することができるものであってもよい。   As another area designation method, as shown in FIGS. 4C and 4D, the user refers to the original image PHT displayed on the display unit 31, and uses the touch pen PEN or the like on the input unit 33. By moving in a straight line shape or a curved line shape so as to correspond to an arbitrary region (see arrows ARc and ARd in the figure) while being in contact, each continuous point LP on the locus LOC of the line is centered. An area included in a circular area having a predetermined radius r (that is, an area having a continuous width 2r) may be set in the designated areas SPC and SPD. Note that the radius r that defines a circular area centered on each point LP on the locus LOC by the touch pen PEN or the like in the area specifying method shown in FIGS. 4B to 4D is set to a predetermined numerical value in advance. For example, on the menu screen as shown in FIGS. 3A and 3B, the user may be able to set an arbitrary numerical value.

これらの各領域指定方法においても、当該領域指定の際にユーザが直感的又は感覚的に接触移動させたタッチペンPEN等の移動速度に応じて、複数の画風から1つの画風が選択されて、原画像PHTが、当該画風が適用された絵画風画像PICa又はPICbに変換される。   Also in each of these area designation methods, one style is selected from a plurality of styles according to the moving speed of the touch pen PEN or the like that the user intuitively or sensibly moved when the area is designated. The image PHT is converted into a picture-like image PICa or PICb to which the style is applied.

<第2の実施形態>
次に、本発明に係る画像処理装置を適用した画像表示装置、および、該画像表示装置における画像処理方法の第2の実施形態について説明する。ここでは、上述した第1の実施形態に示した画像表示装置の構成および画像処理方法を適宜参照しながら第2の実施形態について説明する。
<Second Embodiment>
Next, a second embodiment of an image display apparatus to which the image processing apparatus according to the present invention is applied and an image processing method in the image display apparatus will be described. Here, the second embodiment will be described with reference to the configuration of the image display apparatus and the image processing method described in the first embodiment as appropriate.

上述した第1の実施形態においては、表示部31に表示された原画像PHTを参照して、ユーザが直感的又は感覚的に接触移動させたタッチペンPEN等の移動速度に応じて、原画像PHTを特定の画風が適用された絵画風画像PICa又はPICb(以下、便宜的に絵画風画像PICと総称する)に変換する場合について説明した。第2の実施形態においては、入力部33に接触させたタッチペンPEN等の接触時間に応じて、複数の画風から1つの画風を選択して、原画像PHTを当該画風が適用された絵画風画像PICに変換することを特徴とする。   In the first embodiment described above, the original image PHT is referred to according to the moving speed of the touch pen PEN or the like that the user moved intuitively or sensuously with reference to the original image PHT displayed on the display unit 31. Is converted into a picture-like image PICa or PICb (hereinafter collectively referred to as a picture-like image PIC for convenience) to which a specific style is applied. In the second embodiment, one style is selected from a plurality of styles according to the contact time of the touch pen PEN or the like brought into contact with the input unit 33, and the original picture PHT is a picture style image to which the style is applied. It is characterized by converting to PIC.

本実施形態に係る画像表示装置においては、入力部(接触状態検出手段)33に対するタッチペン等の接触状態および接触位置が検出され、また、CPU21により入力部33にタッチペン等を接触させた際の、当該接触開始から終了までの接触時間が測定される。CPU21は、入力部33から送出される操作信号(接触情報および位置情報)に基づいて、入力部33へのタッチペン等の接触状況を判定するとともに、その接触時間に応じて、画像処理部26において原画像に施す画像変換処理に適用する画風を決定する。   In the image display apparatus according to the present embodiment, the contact state and the contact position of the touch pen or the like with respect to the input unit (contact state detection means) 33 are detected, and the touch pen or the like is brought into contact with the input unit 33 by the CPU 21. The contact time from the start to the end of the contact is measured. The CPU 21 determines the contact state of the touch pen or the like to the input unit 33 based on the operation signal (contact information and position information) sent from the input unit 33, and in the image processing unit 26 according to the contact time. An image style to be applied to image conversion processing applied to the original image is determined.

図5は、第2の実施形態に係る画像処理方法に適用される画像変換処理を示すフローチャートである。ここで、上述した第1の実施形態と同等の処理手順については、その説明を簡略化又は省略する。   FIG. 5 is a flowchart showing an image conversion process applied to the image processing method according to the second embodiment. Here, the description of the processing procedure equivalent to that of the first embodiment described above is simplified or omitted.

上述したような画像表示装置において、本実施形態に係る画像処理方法は、図5のフローチャートに示すように、画像変換モードに設定した後(ステップS211)、上述した第1の実施形態のように、タッチペンPEN等を入力部33に接触させた状態で線状や枠囲みのように移動させる場合とは異なり、タッチペンPEN等を入力部33の任意の同一又は略同一の位置に任意の時間、接触させ続けて、特定の点を指示する。これにより、当該タッチペンPEN等の接触位置に関する情報が検出されて、操作信号としてCPU21に送出される。このとき、CPU21は、当該操作信号に含まれる接触状態(接触又は非接触の二値)に関する情報(接触情報)に基づいて、タッチペンPEN等が入力部33に接触開始されてから終了するまでの時間(接触時間)を測定する(ステップS212;変数値決定処理)。   In the image display apparatus as described above, the image processing method according to the present embodiment, as shown in the flowchart of FIG. 5, is set to the image conversion mode (step S211) and then as in the first embodiment described above. Unlike the case where the touch pen PEN or the like is moved like a line or a frame in a state where the touch pen PEN or the like is in contact with the input unit 33, the touch pen PEN or the like is moved to any same or substantially the same position of the input unit 33 for any time, Continue to touch and indicate a specific point. Thereby, information related to the contact position of the touch pen PEN or the like is detected and sent to the CPU 21 as an operation signal. At this time, the CPU 21 starts from the time when the touch pen PEN or the like starts to contact the input unit 33 based on the information (contact information) related to the contact state (contact or non-contact binary) included in the operation signal. Time (contact time) is measured (step S212; variable value determination processing).

次いで、CPU21において、上記測定された接触時間が、予め設定された複数の時間範囲のいずれに含まれるかを判定して、当該接触時間に応じて特定の画風を設定する。例えば特定の基準時間を境界にして、その基準時間以上の第1の時間範囲と、上記基準時間よりも短い第2の時間範囲の2つの時間範囲が設定されている場合、上記測定された接触時間が、第1および第2の時間範囲のいずれに含まれるかを判定する(ステップS213)。そして、上記接触時間が、第1の時間範囲に含まれる場合には、画像変換処理に適用される第1の画風として、例えば野獣派系の油絵調が設定され(ステップS214)、一方、上記接触時間が、第2の時間範囲に含まれる場合には、第2の画風として、例えばパステル画調が設定される(ステップS215)。これにより、CPU21において、上記測定された接触時間(すなわち、ユーザの入力動作の程度;本実施形態においてはタッチペンPEN等の接触動作の持続時間)に基づいて、複数の画風の中から画像変換処理に適用される1つの画風が選択され、当該画風に応じたパラメータが画像処理部26に設定される(画風選択処理)。   Next, the CPU 21 determines whether the measured contact time is included in any of a plurality of preset time ranges, and sets a specific style according to the contact time. For example, when two time ranges of a first time range that is equal to or greater than the reference time and a second time range that is shorter than the reference time are set with a specific reference time as a boundary, the measured contact It is determined whether the time is included in the first time range or the second time range (step S213). When the contact time is included in the first time range, for example, a beast-style oil painting tone is set as the first style applied to the image conversion process (step S214), When the time is included in the second time range, for example, a pastel image tone is set as the second image style (step S215). Thereby, the CPU 21 performs image conversion processing from a plurality of styles based on the measured contact time (that is, the degree of user input operation; in this embodiment, the duration of the contact operation of the touch pen PEN or the like). Is selected, and a parameter corresponding to the style is set in the image processing unit 26 (style selection process).

次いで、画像処理部26において、上記接触時間に応じて設定された画風に基づいて原画像PHTを画像変換処理することにより、上記画風が適用された絵画風画像PIC(PICa又はPICb)が生成されて(ステップS216;画像変換処理)、内部メモリ24の所定の表示メモリ領域に一時保存される。ここで、この画像変換処理において、画像変換処理の対象となる原画像PHTの領域は、後述する領域指定方法に基づいて、特定の領域(指定領域)に設定されるものであってもよいし、原画像PHTの全領域に設定されるものであってもよい。そして、内部メモリ24に一時保存された絵画風画像PICの画像データは、表示制御部25により読み出され、所定の表示信号に変換されて表示部31に表示される(ステップS217)。   Next, the image processing unit 26 performs image conversion processing on the original image PHT based on the style set according to the contact time, thereby generating a picture style image PIC (PICa or PICb) to which the style is applied. (Step S216; image conversion process) and temporarily stored in a predetermined display memory area of the internal memory 24. Here, in this image conversion process, the area of the original image PHT to be subjected to the image conversion process may be set to a specific area (specified area) based on an area specifying method described later. Alternatively, it may be set in the entire area of the original image PHT. Then, the image data of the picture-like image PIC temporarily stored in the internal memory 24 is read by the display control unit 25, converted into a predetermined display signal, and displayed on the display unit 31 (step S217).

次に、本実施形態に係る画像変換処理に関連する領域指定方法について説明する。
図6は、本実施形態に係る画像変換処理に関連する領域指定方法および画像表示状態の一例を示す概略説明図である。ここで、説明を明瞭化するため、便宜的に図中の指定領域にハッチングを施して示した。
Next, an area designation method related to the image conversion process according to the present embodiment will be described.
FIG. 6 is a schematic explanatory diagram illustrating an example of a region designation method and an image display state related to the image conversion processing according to the present embodiment. Here, for the sake of clarity, the designated area in the figure is hatched for the sake of convenience.

上述した本実施形態に係る画像変換処理に適用可能な領域指定方法は、例えば図6(a)に示すように、ユーザが表示部31に表示された原画像PHTを参照して、入力部33の任意の点LPにタッチペンPEN等を接触させることにより、当該点LPを中心とする所定半径rの円形領域を、指定領域SPEに設定することができる。ここで、指定領域SPEを規定する半径rは、予め一定の数値に設定されているものであってもよいし、上述した第1の実施形態と同様に、例えば図3(a)、(b)に示したようなメニュー画面において、ユーザが任意の数値に設定することができるものであってもよい。   For example, as shown in FIG. 6A, the region designation method applicable to the image conversion process according to the present embodiment described above refers to the original image PHT displayed on the display unit 31 by the user. By bringing the touch pen PEN or the like into contact with an arbitrary point LP, a circular area having a predetermined radius r centered on the point LP can be set as the designated area SPE. Here, the radius r that defines the designated region SPE may be set to a predetermined numerical value in advance, and, for example, as in the first embodiment described above, for example, FIGS. In the menu screen as shown in (1), the user may be able to set an arbitrary numerical value.

また、他の領域指定方法としては、図6(b)、(c)に示すように、ユーザが入力部33にタッチペンPEN等を接触させる時間に応じて、上記円形領域を規定する半径rを順次変化(増減)させて、任意の大きさの指定領域SPEを設定することができるものであってもよい。   Further, as another region designation method, as shown in FIGS. 6B and 6C, the radius r that defines the circular region is set according to the time when the user makes the touch pen PEN or the like contact the input unit 33. The designated area SPE having an arbitrary size may be set by sequentially changing (increasing or decreasing).

このように、本実施形態においては、表示された原画像PHTに対する、ユーザの直感的又は感覚的な入力動作の程度を規定する変数(接触時間の長さ)に応じて、複数の画風から1つの画風を選択して、例えば図6(d)、(e)に示すように、原画像PHTを当該画風に変換した絵画風画像PICa又はPICbを生成することができる。なお、図6(d)は、第1の実施形態における図3(d)に対応し、上述した領域指定方法により指定した、原画像PHTの特定の指定領域SPEのみを、任意の画風に変換した絵画風画像PICaを示し、図6(e)は、第1の実施形態における図3(e)に対応し、原画像PHT全体(全領域)を、任意の画風に変換した絵画風画像PICbを示す。   As described above, in the present embodiment, 1 is selected from a plurality of styles according to the variable (length of contact time) that defines the degree of the intuitive input operation or the sensory input operation of the user with respect to the displayed original image PHT. By selecting two styles of painting, for example, as shown in FIGS. 6D and 6E, a picture style picture PICa or PICb obtained by converting the original image PHT into the style can be generated. Note that FIG. 6D corresponds to FIG. 3D in the first embodiment, and only the specific designated area SPE of the original image PHT designated by the area designation method described above is converted into an arbitrary style. FIG. 6E corresponds to FIG. 3E in the first embodiment, and FIG. 6E shows a picture-like image PICb obtained by converting the entire original image PHT (all areas) into an arbitrary style. Indicates.

したがって、本実施形態においても、上述した第1の実施形態と同様に、ユーザの直感的又は感覚的な入力動作の程度に応じて、絵画風画像に適用される画風を設定するという、新たな画像変換の手法を提示することができるので、ユーザの画像変換に対する興味を高めることができる。   Accordingly, in this embodiment as well, as in the first embodiment described above, a new style of setting a style to be applied to a painting style image is set according to the degree of the intuitive or sensory input operation of the user. Since an image conversion method can be presented, the user's interest in image conversion can be increased.

<第3の実施形態>
次に、本発明に係る画像処理装置を適用した画像表示装置、および、該画像表示装置における画像処理方法の第3の実施形態について説明する。ここでは、上述した第1および第2の実施形態に示した画像表示装置の構成および画像処理方法を適宜参照しながら第3の実施形態について説明する。
<Third Embodiment>
Next, an image display apparatus to which the image processing apparatus according to the present invention is applied and an image processing method in the image display apparatus according to a third embodiment will be described. Here, the third embodiment will be described with appropriate reference to the configuration of the image display device and the image processing method shown in the first and second embodiments described above.

上述した第1および第2の実施形態においては、表示部31に表示された原画像PHTを参照して、ユーザが直感的又は感覚的に接触移動させたタッチペンPEN等の移動速度や接触時間に応じて、複数の画風から1つの画風を選択して、原画像PHTを当該画風が適用された絵画風画像PICに変換する場合について説明した。第3の実施形態においては、入力部33に接触させたタッチペンPEN等の押圧力に応じて、複数の画風から1つの画風を選択して、原画像PHTを当該画風が適用された絵画風画像PICに変換することを特徴とする。   In the first and second embodiments described above, with reference to the original image PHT displayed on the display unit 31, the moving speed and contact time of the touch pen PEN or the like that the user has moved intuitively or sensibly is determined. Accordingly, a case has been described in which one style is selected from a plurality of styles and the original image PHT is converted into a picture-like image PIC to which the style is applied. In the third embodiment, one style is selected from a plurality of styles in accordance with the pressing force of the touch pen PEN or the like brought into contact with the input unit 33, and the original style PHT is a painting style image to which the style is applied. It is characterized by converting to PIC.

本実施形態に係る画像表示装置においては、入力部(力検出手段)33が、少なくとも、ユーザが表示部31に表示された原画像を参照して、直感的又は感覚的にタッチペン等を接触させた際の、当該接触位置および押圧力を検出することができる、既存の感圧型のタッチパネルから構成されている。また、CPU21は、当該感圧型のタッチパネルからなる入力部33から送出される操作信号(位置情報および圧力情報)に基づいて、入力部33へのタッチペン等の接触状況を判定するとともに、その押圧力に応じて、画像処理部26において原画像に施す画像変換処理に適用する画風を決定する。   In the image display apparatus according to the present embodiment, the input unit (force detection unit) 33 refers to the original image displayed on the display unit 31 at least by the user and touches the touch pen etc. intuitively or sensorily. It is composed of an existing pressure-sensitive touch panel that can detect the contact position and the pressing force at the time. Further, the CPU 21 determines a contact state of the touch pen or the like to the input unit 33 based on an operation signal (position information and pressure information) sent from the input unit 33 including the pressure-sensitive touch panel, and the pressing force. Accordingly, the image processing unit 26 determines an image style to be applied to the image conversion process performed on the original image.

図7は、第3の実施形態に係る画像処理方法に適用される画像変換処理を示すフローチャートである。また、図8は、本実施形態に係る画像変換処理に関連する操作方法および画像表示状態の一例を示す概略説明図である。ここで、上述した第1および第2の実施形態と同等の処理手順については、その説明を簡略化又は省略する。   FIG. 7 is a flowchart showing an image conversion process applied to the image processing method according to the third embodiment. FIG. 8 is a schematic explanatory diagram illustrating an example of an operation method and an image display state related to the image conversion processing according to the present embodiment. Here, description of processing procedures equivalent to those in the first and second embodiments described above is simplified or omitted.

本実施形態に係る画像処理方法は、図7のフローチャートに示すように、画像変換モードに設定した後(ステップS311)、例えば図8(a)に示すように、ユーザが表示部31に表示された画像を参照して、入力部33にタッチペンPEN等を、直感的又は感覚的に任意の力で押し付けた状態(図中、矢印ARz参照)で、任意の領域を指定するように往復動作(図中、矢印ARa参照)させることにより、当該タッチペンPEN等の接触位置に関する情報(接触情報)、および、タッチペンPEN等の押圧力に関する情報(圧力情報)が検出されて、操作信号としてCPU21に送出される(ステップS312)。CPU21は、当該操作信号に含まれる位置情報と、各位置における圧力情報とを関連付けて、位置情報ごとに内部メモリ24の所定のメモリ領域に順次保存する。ここで、CPU21は、位置情報に変化がない状態で、タッチペンPEN等の押圧力が変化した場合には、当該変化後の押圧力の値が、すでに内部メモリ24に保存されている値よりも大きい場合には、当該変化後の押圧力の値を内部メモリ24の所定のメモリ領域に上書き保存する。そして、CPU21は、当該操作信号に含まれる位置情報と、各位置における圧力情報とに基づいて、タッチペンPEN等の非接触状態を検出し、内部メモリ24に保存された各押圧力の代表値(本実施形態においては、最大値、又は、平均値)を算出する(ステップS313;変数値決定処理)。   In the image processing method according to the present embodiment, as shown in the flowchart of FIG. 7, after the image conversion mode is set (step S311), for example, as shown in FIG. 8A, the user is displayed on the display unit 31. With reference to the image, the touch pen PEN or the like is pressed against the input unit 33 with an arbitrary force intuitively or sensuously (refer to the arrow ARz in the drawing) so as to reciprocate so as to designate an arbitrary region ( By referring to the arrow ARa in the figure, information (contact information) regarding the contact position of the touch pen PEN or the like and information (pressure information) regarding the pressing force of the touch pen PEN or the like is detected and sent to the CPU 21 as an operation signal. (Step S312). The CPU 21 associates the position information included in the operation signal with the pressure information at each position, and sequentially stores the position information in a predetermined memory area of the internal memory 24 for each position information. Here, when the pressing force of the touch pen PEN or the like changes in a state where there is no change in the position information, the CPU 21 changes the value of the pressing force after the change from the value already stored in the internal memory 24. If it is larger, the pressure value after the change is overwritten and stored in a predetermined memory area of the internal memory 24. Then, the CPU 21 detects a non-contact state of the touch pen PEN or the like based on the position information included in the operation signal and the pressure information at each position, and represents the representative value of each pressing force stored in the internal memory 24 ( In the present embodiment, a maximum value or an average value) is calculated (step S313; variable value determination process).

ここで、上記押圧力の代表値を算出する具体的な手法は、例えば、まず、タッチペンPEN等による入力部33への接触が開始(接触状態が検出)されると、入力部33からタッチペンPEN等の接触位置に関する情報(位置情報)、および、押圧力に関する情報(圧力情報)が、操作信号としてCPU21に送出される。CPU21は、当該操作信号に基づいて、表示部31上の対応する画素の座標を算出して、算出された座標と、当該座標における押圧力を関連付けて内部メモリ24に保存される。ここで、タッチペンPEN等の押圧力の検出動作は、上記接触が開始された後、当該接触が終了する(非接触状態が検出される)までの間、位置情報(換言すると、算出された座標)の変化を検出するたびに実行される。また、位置情報に変化がない状態で、タッチペンPEN等の押圧力が変化した場合には、当該変化後の押圧力の値と、当該位置情報に基づいて算出された座標に関連付けて内部メモリ24にすでに保存されている値とを比較して、大きい方の押圧力の値を内部メモリ24に上書き保存する。これにより、各座標における押圧力の最大値が常に更新されて保存される。そして、タッチペンPEN等による入力部33への接触が終了した(非接触状態が検出された)場合には、CPU21は、内部メモリ24に保存された座標ごとの押圧力に基づいて、後述する画像変換処理に適用される画風を決定するための、次のような押圧力の代表値を算出して内部メモリ24に保存する。具体的には、第1の例として、入力部33にタッチペンPEN等が接触していた期間(接触期間)中に検出され、内部メモリ24に保存された全座標の押圧力のうち、最大となる押圧力の値を代表値とする。また、第2の例としては、接触期間中に検出され、保存された全座標の押圧力の平均値を代表値とする。ここで、上記全座標の押圧力の平均値は、次式で表される。   Here, a specific method for calculating the representative value of the pressing force is, for example, when the touch pen PEN or the like starts contact with the input unit 33 (contact state is detected), and the touch pen PEN is input from the input unit 33. The information on the contact position (position information) and the information on the pressing force (pressure information) are sent to the CPU 21 as operation signals. The CPU 21 calculates the coordinates of the corresponding pixel on the display unit 31 based on the operation signal, and stores the calculated coordinates and the pressing force at the coordinates in the internal memory 24 in association with each other. Here, the detection operation of the pressing force of the touch pen PEN or the like is based on the positional information (in other words, the calculated coordinates) until the contact is completed (a non-contact state is detected) after the contact is started. ) Is executed each time a change is detected. Further, when the pressing force of the touch pen PEN or the like changes in a state where the position information is not changed, the internal memory 24 is associated with the value of the pressing force after the change and the coordinates calculated based on the position information. Is compared with the value already stored in the memory, and the larger pressing force value is overwritten in the internal memory 24. As a result, the maximum value of the pressing force at each coordinate is always updated and stored. Then, when the contact with the input unit 33 by the touch pen PEN or the like is completed (a non-contact state is detected), the CPU 21 performs an image described later based on the pressing force for each coordinate stored in the internal memory 24. The following representative pressure values for determining the style applied to the conversion process are calculated and stored in the internal memory 24. Specifically, as a first example, the maximum of the pressing forces of all coordinates detected during a period (contact period) in which the touch pen PEN or the like is in contact with the input unit 33 and stored in the internal memory 24 is the maximum. The value of the pressing force becomes a representative value. As a second example, the average value of the pressing force of all coordinates detected and stored during the contact period is used as a representative value. Here, the average value of the pressing force of all the coordinates is expressed by the following equation.

次いで、CPU21において、上記保存された押圧力の代表値(全座標の押圧力の最大値、又は、全座標の押圧力の平均値)が、予め設定された複数の圧力範囲のいずれに含まれるかを判定して、当該代表値に応じて特定の画風を設定する。例えば、特定の基準値を境界にして、その基準値以上の第1の圧力範囲と、上記基準値よりも小さい第2の圧力範囲の2つの圧力範囲が設定されている場合、上記算出された代表値が、第1および第2の圧力範囲のいずれに含まれるかを判定する(ステップS314)。そして、上記代表値が、第1の圧力範囲に含まれる場合には、画像変換処理に適用される第1の画風として、例えば野獣派系の油絵調が設定され(ステップS315)、一方、上記代表値が、第2の圧力範囲に含まれる場合には、第2の画風として、例えばパステル画調が設定される(ステップS316)。これにより、CPU21において、上記押圧力の大きさ(すなわち、ユーザの入力動作の程度;本実施形態においてはタッチペンPEN等を押し付ける強さ)に基づいて、複数の画風の中から画像変換処理に適用される1つの画風が選択され、当該画風に応じたパラメータが画像処理部26に設定される(画風選択処理)。   Next, in the CPU 21, the representative value of the stored pressing force (the maximum value of the pressing force of all coordinates or the average value of the pressing force of all coordinates) is included in any of a plurality of preset pressure ranges. And a specific style is set according to the representative value. For example, when two pressure ranges of a first pressure range that is equal to or higher than the reference value and a second pressure range that is smaller than the reference value are set with a specific reference value as a boundary, the above calculation is performed. It is determined whether the representative value is included in the first pressure range or the second pressure range (step S314). When the representative value is included in the first pressure range, for example, a beast-style oil painting tone is set as the first style applied to the image conversion process (step S315), while the representative value When the value is included in the second pressure range, for example, a pastel image tone is set as the second image style (step S316). Thus, the CPU 21 applies the image conversion process from a plurality of styles based on the magnitude of the pressing force (that is, the degree of the user's input operation; the strength of pressing the touch pen PEN or the like in the present embodiment). One style is selected, and parameters according to the style are set in the image processing unit 26 (style selection process).

次いで、画像処理部26において、上記押圧力の代表値に応じて設定された画風に基づいて原画像PHTを画像変換処理することにより、上記画風が適用された絵画風画像PIC(PICa又はPICb)が生成されて(ステップS317;画像変換処理)、内部メモリ24の所定の表示メモリ領域に一時保存される。ここで、この画像変換処理において、画像変換処理の対象となる原画像PHTの領域は、後述する領域指定方法に基づいて、特定の領域(指定領域)に設定されるものであってもよいし、原画像PHTの全領域に設定されるものであってもよい(第1の実施形態に示した図3(d)、(e)参照)。そして、内部メモリ24に一時保存された絵画風画像PICの画像データは、表示制御部25により読み出され、所定の表示信号に変換されて表示部31に表示される(ステップS318)。   Next, the image processing unit 26 performs image conversion processing on the original image PHT based on the image style set according to the representative value of the pressing force, so that the picture-like image PIC (PICa or PICb) to which the image style is applied. Is generated (step S317; image conversion process) and temporarily stored in a predetermined display memory area of the internal memory 24. Here, in this image conversion process, the area of the original image PHT to be subjected to the image conversion process may be set to a specific area (specified area) based on an area specifying method described later. Alternatively, it may be set in the entire area of the original image PHT (see FIGS. 3D and 3E shown in the first embodiment). Then, the image data of the picture-like image PIC temporarily stored in the internal memory 24 is read by the display control unit 25, converted into a predetermined display signal, and displayed on the display unit 31 (step S318).

次に、本実施形態に係る画像変換処理に関連する領域指定方法について説明する。
図8は、本実施形態に係る画像変換処理に関連する領域指定方法の一例を示す概略説明図である。ここで、説明を明瞭化するため、便宜的に図中の指定領域にハッチングを施して示した。
Next, an area designation method related to the image conversion process according to the present embodiment will be described.
FIG. 8 is a schematic explanatory diagram illustrating an example of a region designation method related to the image conversion processing according to the present embodiment. Here, for the sake of clarity, the designated area in the figure is hatched for the sake of convenience.

上述した本実施形態に係る画像変換処理に適用可能な領域指定方法は、例えば図8(a)に示すように、ユーザが表示部31に表示された原画像PHTを参照して、入力部33にタッチペンPEN等を任意の力(図中、矢印FCa参照)で押し付けた状態で、直感的又は感覚的に複数回往復動作(図中、矢印ARa参照)させることにより、当該タッチペンPEN等の軌跡LOCに対応した領域が、画像変換処理の対象となる特定の領域(指定領域)に指定される。ここで、指定領域は、上述した第1の実施形態と同様に、タッチペンPEN等により指示した領域(軌跡LOCからなる領域や塗りつぶした領域)に限定されるものではなく、当該軌跡LOCを基準にして所定の広がりを有する領域を含むものであってもよい。   For example, as shown in FIG. 8A, the region designation method applicable to the image conversion process according to the present embodiment described above refers to the original image PHT displayed on the display unit 31 and the input unit 33. When the touch pen PEN or the like is pressed with an arbitrary force (see the arrow FCa in the drawing), the locus of the touch pen PEN or the like is moved intuitively or sensuously multiple times (see the arrow ARa in the drawing). An area corresponding to the LOC is designated as a specific area (designated area) to be subjected to image conversion processing. Here, as in the first embodiment described above, the designated area is not limited to the area designated by the touch pen PEN or the like (the area formed by the locus LOC or the filled area), and the designated area is based on the locus LOC. And may include a region having a predetermined spread.

また、他の領域指定方法としては、図8(b)に示すように、ユーザが表示部31に表示された原画像PHTを参照して、入力部33にタッチペンPEN等を任意の力(図中、矢印FCb参照)で押し付けた状態で、任意の領域を閉じた線で円形状や多角形状等に枠囲み(図中、矢印ARb参照)することにより、当該枠囲みした線の軌跡LOCの内側(内部)を、指定領域SPBとして設定するものであってもよい。また、上述した第1の実施形態と同様に、指定領域SPBは、例えば図8(c)に示すように、タッチペンPEN等による線の軌跡LOCの内側の領域に加え、当該軌跡LOC上の連続する各点LPを中心とする所定半径rの円形領域に含まれる領域(すなわち、連続する幅2rの領域)に設定されるものであってもよい。   Further, as another region designation method, as shown in FIG. 8B, the user refers to the original image PHT displayed on the display unit 31 and uses the touch pen PEN or the like on the input unit 33 with any force (see FIG. 8B). In the state pressed with the middle arrow FCb), an arbitrary region is surrounded by a closed line in a circle shape or a polygonal shape (see arrow ARb in the figure), so that the locus LOC of the line surrounded by the frame is changed. The inside (inside) may be set as the designated area SPB. Similarly to the first embodiment described above, the designated area SPB is a continuous area on the locus LOC in addition to the area inside the locus LOC of the line by the touch pen PEN or the like, for example, as shown in FIG. It may be set to a region included in a circular region having a predetermined radius r with each point LP as a center (that is, a region having a continuous width 2r).

また、他の領域指定方法としては、図8(d)に示すように、ユーザが表示部31に表示された原画像PHTを参照して、入力部33にタッチペンPEN等を任意の力(図中、矢印FCc参照)で押し付けた状態で、任意の領域に対応するように直線状や曲線状等に移動(図中、矢印ARc参照)させることにより、当該線の軌跡LOC上の連続する各点LPを中心とする所定半径rの円形領域に含まれる領域(すなわち、連続する幅2rの領域)が、指定領域SPCに設定されるものであってもよい。   Further, as another region designation method, as shown in FIG. 8D, the user refers to the original image PHT displayed on the display unit 31 and applies a touch pen PEN or the like to the input unit 33 with any force (FIG. In the state of being pressed by the arrow FCc), by moving in a straight line or a curved line so as to correspond to an arbitrary region (see the arrow ARc in the figure), each continuous line LOC on the locus LOC An area included in a circular area having a predetermined radius r centered on the point LP (that is, an area having a continuous width 2r) may be set as the designated area SPC.

また、さらに他の領域指定方法としては、図8(e)に示すように、ユーザが表示部31に表示された原画像PHTを参照して、入力部33の任意の点LPにタッチペンPEN等を任意の力(図中、矢印FCe参照)で押し付けることにより、当該点LPを中心とする所定半径rの円形領域が、指定領域SPEに設定されるものであってもよい。   As another area specifying method, as shown in FIG. 8E, the user refers to the original image PHT displayed on the display unit 31 and touches the touch pen PEN or the like at an arbitrary point LP of the input unit 33. Is pressed with an arbitrary force (see the arrow FCe in the figure), a circular area having a predetermined radius r centered on the point LP may be set as the designated area SPE.

なお、図8(b)〜(e)に示した領域指定方法におけるタッチペンPEN等による軌跡LOC上の各点LPを中心とする円形領域を規定する半径rは、予め一定の数値に設定されているものであってもよいし、ユーザが任意の数値に設定することができるものであってもよい。さらに、当該半径rは、タッチペンPEN等の押圧力に応じて変化(増減)させて、例えば押圧力が大きい場合には半径rが大きく設定され、押圧力が小さい場合には半径rが小さく設定されるものであってもよい。   It should be noted that the radius r that defines a circular area centered on each point LP on the locus LOC by the touch pen PEN or the like in the area specifying method shown in FIGS. 8B to 8E is set to a predetermined numerical value in advance. It may be a thing which can be set to arbitrary numerical values by the user. Further, the radius r is changed (increased / decreased) according to the pressing force of the touch pen PEN or the like. For example, when the pressing force is large, the radius r is set large, and when the pressing force is small, the radius r is set small. It may be done.

このように、本実施形態においては、表示された原画像PHTに対する、ユーザの直感的又は感覚的な入力動作の程度を規定する変数(押圧力の大きさ)に応じて、複数の画風から1つの画風を選択して、原画像PHTを当該画風に変換した絵画風画像PICを生成することができる。したがって、本実施形態においても、上述した第1および第2の実施形態と同様に、ユーザの直感的又は感覚的な入力動作の程度に応じて、絵画風画像に適用される画風を設定するという、新たな画像変換の手法を提示することができるので、ユーザの画像変換に対する興味を高めることができる。   As described above, in the present embodiment, 1 is selected from a plurality of styles according to the variable (the magnitude of the pressing force) that defines the degree of the user's intuitive or sensory input operation with respect to the displayed original image PHT. By selecting two styles of painting, it is possible to generate a picture style picture PIC obtained by converting the original image PHT into the style of painting. Therefore, in this embodiment as well, as in the first and second embodiments described above, the style of painting applied to the painting style image is set according to the degree of the intuitive or sensory input operation of the user. Since a new image conversion technique can be presented, the user's interest in image conversion can be increased.

なお、上述した各実施形態においては、画像変換処理に適用される画風として、説明の都合上、便宜的に2種類の画風(第1の画風;野獣派系油絵調、第2の画風;パステル画調)を示し、ユーザによる入力動作の程度(接触移動速度、接触時間、押圧力)に応じて、いずれかの画風を選択して原画像を画像変換処理する場合について説明したが、本発明は、これに限定されるものではないことはいうまでもない。すなわち、本発明は、ユーザによる入力動作の程度について、より多くの基準値を設けて、判定される範囲を細かく分類することにより、3種類以上の多様な画風から選択された特定の画風が適用された絵画風画像を生成するものであってもよい。   In each of the above-described embodiments, for the convenience of explanation, two types of painting styles (first painting style; beast-style oil painting style, second painting style; pastel painting) are used as the painting styles applied to the image conversion processing. In the above description, the original image is subjected to image conversion processing by selecting one of the styles in accordance with the degree of input operation (contact movement speed, contact time, pressing force) by the user. Needless to say, the present invention is not limited to this. That is, the present invention applies a specific style selected from three or more types of styles by providing more reference values for the degree of input operation by the user and finely classifying the determined range. It is also possible to generate a painted picture-like image.

<第4の実施形態>
次に、本発明に係る画像処理装置を適用した画像表示装置、および、該画像表示装置における画像処理方法の第4の実施形態について説明する。ここでは、上述した第1乃至第3の実施形態に示した画像表示装置の構成および画像処理方法を適宜参照しながら第4の実施形態について説明する。
<Fourth Embodiment>
Next, an image display apparatus to which the image processing apparatus according to the present invention is applied and an image processing method in the image display apparatus according to a fourth embodiment will be described. Here, the fourth embodiment will be described with reference to the configuration of the image display device and the image processing method described in the first to third embodiments as appropriate.

上述した第1乃至第3の実施形態においては、画像変換処理の対象となる指定領域として、原画像PHT中の1カ所の領域のみを指定し、当該領域を特定の画風に画像変換する場合について説明した。第4の実施形態においては、画像変換処理の対象となる指定領域として、原画像PHT中の複数の領域を順次指定し、各指定領域を特定の画風に画像変換することを特徴とする。ここで、各領域の指定方法は、上述した第1乃至第3の実施形態に示したいずれかの手法が適用される。   In the first to third embodiments described above, a case where only one area in the original image PHT is designated as a designated area to be subjected to image conversion processing, and the area is subjected to image conversion in a specific style. explained. The fourth embodiment is characterized in that a plurality of areas in the original image PHT are sequentially designated as designated areas to be subjected to image conversion processing, and each designated area is image-converted into a specific style. Here, any of the methods shown in the first to third embodiments described above is applied as a method for specifying each region.

図9は、第4の実施形態に係る画像変換処理に関連する領域指定方法および画像表示状態の他の例を示す概略説明図である。ここでは、説明の都合上、上述した第1の実施形態と同等の領域指定方法および画像表示状態を用いて、複数の領域を指定した場合の絵画風画像の表示状態について説明するが、第2又は第3の実施形態に示した領域指定方法を適用するものであってもよいことはいうまでもない。   FIG. 9 is a schematic explanatory diagram illustrating another example of the region designation method and the image display state related to the image conversion processing according to the fourth embodiment. Here, for convenience of explanation, the display state of a painting-like image when a plurality of regions are designated using the region designation method and the image display state equivalent to those of the first embodiment described above will be described. It goes without saying that the area designating method shown in the third embodiment may be applied.

本実施形態に係る画像変換処理に適用可能な領域指定方法は、例えば図9(a)に示すように、上述した第1の実施形態と同様に、ユーザが表示部31に表示された原画像PHTを参照して、入力部33にタッチペンPEN等を接触させた状態で複数回往復動作(図中、矢印AR1参照)させることにより、当該タッチペンPEN等の軌跡LOC1に対応する領域が、画像変換処理を施す指定領域SP1として設定される。このとき、CPU21は、タッチペンPEN等の軌跡LOC1に関連する位置情報と、各位置における時間情報とに基づいて、指定領域SP1におけるタッチペンPEN等の接触移動速度を算出して、内部メモリ24に保存する。   For example, as shown in FIG. 9A, the region designation method applicable to the image conversion processing according to the present embodiment is an original image displayed on the display unit 31 by the user as in the first embodiment described above. With reference to the PHT, the region corresponding to the locus LOC1 of the touch pen PEN or the like is converted into an image by performing a reciprocating motion (see arrow AR1 in the figure) a plurality of times while the touch pen PEN or the like is in contact with the input unit 33. It is set as the designated area SP1 to be processed. At this time, the CPU 21 calculates the contact movement speed of the touch pen PEN or the like in the designated area SP1 based on the position information related to the locus LOC1 of the touch pen PEN or the like and the time information at each position, and saves it in the internal memory 24. To do.

次いで、原画像PHT中に上記指定領域SP1以外にも画像変換処理を施す領域がある場合には、図9(b)に示すように、ユーザが表示部31に表示された原画像PHTを参照して、当該領域に対して、入力部33にタッチペンPEN等を接触させた状態で複数回往復動作(図中、矢印AR2参照)させることにより、当該タッチペンPEN等の軌跡LOC2に対応する領域が、画像変換処理を施す指定領域SP2として設定される。このとき、CPU21は、タッチペンPEN等の軌跡LOC2に関連する位置情報と、各位置における時間情報とに基づいて、指定領域SP2におけるタッチペンPEN等の接触移動速度を算出して、内部メモリ24に保存する。   Next, when the original image PHT includes an area to be subjected to image conversion processing in addition to the designated area SP1, the user refers to the original image PHT displayed on the display unit 31, as shown in FIG. 9B. Then, the region corresponding to the locus LOC2 of the touch pen PEN or the like can be obtained by performing reciprocal movement (see the arrow AR2 in the figure) a plurality of times while the touch pen PEN or the like is in contact with the input unit 33 with respect to the region. The designated area SP2 to be subjected to image conversion processing is set. At this time, the CPU 21 calculates the contact movement speed of the touch pen PEN or the like in the designated area SP2 based on the position information related to the locus LOC2 of the touch pen PEN or the like and the time information at each position, and saves it in the internal memory 24. To do.

以下、同様の領域指定処理を繰り返して、画像変換処理を施す領域を全て設定した後、例えば表示部31に表示されたアイコンを選択することにより、領域指定動作の完了を通知する情報が操作信号としてCPU21に送出される。   Thereafter, the same region designation processing is repeated to set all the regions to be subjected to the image conversion processing, and then, for example, by selecting an icon displayed on the display unit 31, information for notifying completion of the region designation operation is displayed as an operation signal. To the CPU 21.

次いで、CPU21において、上記指定領域SP1、SP2ごとに、タッチペンPEN等の接触移動速度に基づいて、速度範囲を判定して画風を決定する。そして、画像処理部26において、上記画風に応じたパラメータを用いて画像変換処理を実行することにより、例えば図9(c)に示すように、原画像PHTの指定領域SP1が野獣派系の油絵調に変換され、また、原画像PHTの指定領域SP2がパステル画調に変換される。これにより、各指定領域SP1、SP2がユーザの直感的又は感覚的な入力動作の程度(接触移動速度)に応じた画風に変換された絵画風画像PICxが生成される。   Next, in the CPU 21, for each of the designated areas SP1 and SP2, the speed range is determined based on the contact movement speed of the touch pen PEN or the like to determine the style. Then, the image processing unit 26 executes image conversion processing using parameters according to the above-described style, so that, for example, as shown in FIG. 9C, the designated area SP1 of the original image PHT is a beast-style oil painting tone. In addition, the designated area SP2 of the original image PHT is converted into a pastel image tone. As a result, a painting-like image PICx in which the designated areas SP1 and SP2 are converted into a painting style corresponding to the degree of intuitive or sensory input operation (contact movement speed) is generated.

このように、本実施形態においては、表示された原画像PHT中の複数の指定領域に対する、ユーザの直感的又は感覚的な入力動作の程度(接触移動速度、接触時間、押圧力)に応じて、各指定領域の画風を決定して、原画像PHTを各画風に変換した絵画風画像PICxを生成することができる。したがって、本実施形態においても、ユーザの直感的又は感覚的な入力動作の程度に応じて、絵画風画像に適用される画風を設定するという、新たな画像変換の手法を提示することができるので、ユーザの画像変換に対する興味を高めることができる。   As described above, according to the present embodiment, the user's intuitive or sensory input operation (contact movement speed, contact time, pressing force) with respect to a plurality of designated areas in the displayed original image PHT is performed. The painting style image PICx obtained by converting the original image PHT into each painting style can be generated by determining the painting style of each designated area. Therefore, also in this embodiment, it is possible to present a new image conversion method of setting a style applied to a picture-like image according to the degree of intuitive or sensory input operation of the user. The user's interest in image conversion can be increased.

<第5の実施形態>
次に、本発明に係る画像処理装置を適用した画像表示装置、および、該画像表示装置における画像処理方法の第5の実施形態について説明する。ここでは、上述した第1の実施形態に示した画像表示装置の構成を適宜参照しながら第5の実施形態について説明する。
<Fifth Embodiment>
Next, an image display apparatus to which an image processing apparatus according to the present invention is applied, and a fifth embodiment of an image processing method in the image display apparatus will be described. Here, the fifth embodiment will be described with reference to the configuration of the image display apparatus described in the first embodiment as appropriate.

上述した第1の実施形態においては、図1に示したように、画像表示装置10単体で、表示部31に表示された原画像PHTを特定の画風が適用された絵画風画像PICに変換するスタンドアロン型の構成について説明した。第5の実施形態においては、原画像PHTを特定の画風が適用された絵画風画像PICに変換する画像変換処理機能が、上述した画像表示装置10ではなく、当該画像表示装置10にネットワークやケーブル等を介して接続されたホストコンピュータやサーバ等に設けられ、当該ホストコンピュータ等により画像変換処理が実行されることを特徴とする。   In the first embodiment described above, as shown in FIG. 1, the image display device 10 alone converts the original image PHT displayed on the display unit 31 into a picture-like image PIC to which a specific style is applied. The stand-alone configuration has been described. In the fifth embodiment, an image conversion processing function for converting an original image PHT into a picture-like image PIC to which a specific style is applied is not a network or cable connected to the image display device 10 instead of the image display device 10 described above. The image conversion processing is executed by the host computer or the like that is provided in a host computer or server connected via the network.

図10は、本発明の第5の実施形態に係る画像表示装置のハードウェア構成を示す概略ブロック図である。ここで、上述した第1の実施形態(図1参照)と同等の構成については、その説明を簡略化又は省略する。   FIG. 10 is a schematic block diagram showing a hardware configuration of an image display apparatus according to the fifth embodiment of the present invention. Here, the description of the configuration equivalent to that of the above-described first embodiment (see FIG. 1) is simplified or omitted.

図10に示すように、本実施形態に係る画像表示装置10は、データ処理部20と、ユーザI/F部30と、を備え、ネットワーク(通信手段)50を介して、ホストコンピュータ60やファイルサーバ70に接続された構成を有している。データ処理部20は、上述した第1の実施形態と同様に、概略、CPU21と、ROM22と、RAM23と、内部メモリ24と、表示制御部25と、画像処理部26と、を備えている。ここで、本実施形態においては、画像処理部26は、上述した第1乃至第4の実施形態に示した画像変換機能を有していない。   As shown in FIG. 10, the image display apparatus 10 according to the present embodiment includes a data processing unit 20 and a user I / F unit 30, and a host computer 60 and a file via a network (communication means) 50. It has a configuration connected to the server 70. The data processing unit 20 generally includes a CPU 21, a ROM 22, a RAM 23, an internal memory 24, a display control unit 25, and an image processing unit 26, as in the first embodiment described above. Here, in the present embodiment, the image processing unit 26 does not have the image conversion function shown in the first to fourth embodiments described above.

また、ユーザI/F部30は、上述した第1の実施形態と同様に、概略、表示部31と、操作部32と、入力部33と、通信部34と、メモリI/F部35と、を備えている。ここで、本実施形態においては、通信部34は、ネットワーク50に接続されている。   The user I / F unit 30 is roughly similar to the first embodiment described above, and includes a display unit 31, an operation unit 32, an input unit 33, a communication unit 34, and a memory I / F unit 35. It is equipped with. Here, in the present embodiment, the communication unit 34 is connected to the network 50.

ホストコンピュータ60は、ネットワーク50に接続され、上述した第1乃至第4の実施形態に示した画像処理部26と同等の画像変換機能を有している。すなわち、画像表示装置10において、入力部33にユーザによる入力動作が実行されると、当該入力動作(接触移動速度、接触時間、押圧力)に関する操作信号が、表示部31に表示された原画像の画像データとともに、通信部34に接続されたネットワーク50を介してホストコンピュータ60に送信される。ホストコンピュータ60は、受信した原画像の画像データと操作信号に基づいて、上述した第1乃至第4の実施形態に示した画像変換処理を実行して、ユーザの直感的又は感覚的な入力動作の程度に応じた画風からなる絵画風画像を生成する。そして、ホストコンピュータ60は、ネットワーク50を介して、生成された絵画風画像の画像データを画像表示装置10に送信する。   The host computer 60 is connected to the network 50 and has an image conversion function equivalent to that of the image processing unit 26 described in the first to fourth embodiments. That is, in the image display device 10, when an input operation by the user is executed on the input unit 33, an operation signal related to the input operation (contact movement speed, contact time, pressing force) is displayed on the display unit 31. Are transmitted to the host computer 60 via the network 50 connected to the communication unit 34. The host computer 60 executes the image conversion processing shown in the first to fourth embodiments based on the received image data of the original image and the operation signal, and the user's intuitive or sensory input operation A painting-like image composed of a painting style according to the degree of the image is generated. Then, the host computer 60 transmits image data of the generated painting-like image to the image display device 10 via the network 50.

このように、本実施形態においては、画像表示装置10にネットワーク50を介して接続されたホストコンピュータ60に、画像変換機能を備えることにより、画像表示装置10の画像処理部26における処理負担を軽減することができる。したがって、例えば、ユーザによる入力動作や、原画像および絵画風画像の表示動作に係る処理速度を向上させたり、電力消費を削減することができ、画像表示装置10の性能を向上させることができる。   As described above, in this embodiment, the host computer 60 connected to the image display device 10 via the network 50 is provided with the image conversion function, thereby reducing the processing burden on the image processing unit 26 of the image display device 10. can do. Therefore, for example, the processing speed related to the input operation by the user and the display operation of the original image and the painting-like image can be improved, the power consumption can be reduced, and the performance of the image display device 10 can be improved.

なお、本実施形態において、ホストコンピュータ60において実行される画像変換処理に用いられる原画像の画像データは、画像表示装置10から操作信号とともに送信されるものに限定されない。すなわち、例えば画像表示装置10の表示部31に表示されている原画像が、ネットワーク50に接続されたファイルサーバ70に蓄積された画像データを、ブラウザ等により直接閲覧するものである場合には、ホストコンピュータ60は、当該原画像の画像データをファイルサーバ70から受信する。この場合、ホストコンピュータ60における画像変換処理により生成された絵画風画像の画像データは、例えばファイルサーバ70の所定のメモリ領域に保存されて、ネットワーク50を介して、画像表示装置10の表示部31に当該絵画風画像が表示される。   In the present embodiment, the image data of the original image used for the image conversion process executed by the host computer 60 is not limited to that transmitted from the image display device 10 together with the operation signal. That is, for example, when the original image displayed on the display unit 31 of the image display apparatus 10 is for browsing the image data stored in the file server 70 connected to the network 50 directly by a browser or the like, The host computer 60 receives the image data of the original image from the file server 70. In this case, the image data of the painting-like image generated by the image conversion process in the host computer 60 is stored in, for example, a predetermined memory area of the file server 70 and is displayed on the display unit 31 of the image display device 10 via the network 50. The picture-like image is displayed on the screen.

また、本実施形態においては、画像表示装置10がネットワーク50を介してホストコンピュータ60に接続された構成について説明したが、本発明はこれに限定されるものではなく、画像表示装置10の通信部34とホストコンピュータ60が通信ケーブルを介して直接接続されているものであってもよい。   In the present embodiment, the configuration in which the image display apparatus 10 is connected to the host computer 60 via the network 50 has been described. However, the present invention is not limited to this, and the communication unit of the image display apparatus 10 34 and the host computer 60 may be directly connected via a communication cable.

なお、上述した各実施形態においては、入力部33により検出されるユーザの入力動作として、タッチペン等の接触移動速度、接触時間、押圧力のいずれか一つを用いて、画像変換処理に適用する画風を決定する場合について説明したが、これらのうち、任意の複数の入力動作を用いて、画風を決定するものであってもよい。例えば、入力部33として位置検出型のタッチパネルを適用した場合には、ユーザの入力動作として、例えば接触移動速度と接触時間を用いることができる。また、入力部33として感圧型のタッチパネルを適用した場合には、ユーザの入力動作として、例えば接触移動速度と押圧力を用いることができる。これらの複数の入力動作の組み合わせによれば、画風を決定する際の判定の範囲を細かく分類することができるので、多様な画風から選択された特定の画風が適用された絵画風画像を生成することができる。   In each of the above-described embodiments, any one of the contact movement speed, the contact time, and the pressing force of the touch pen or the like is used as the user input operation detected by the input unit 33 and is applied to the image conversion process. Although the case where the style is determined has been described, the style may be determined using any of a plurality of input operations. For example, when a position detection type touch panel is applied as the input unit 33, for example, a contact moving speed and a contact time can be used as the user input operation. Further, when a pressure-sensitive touch panel is applied as the input unit 33, for example, a contact moving speed and a pressing force can be used as a user input operation. According to the combination of the plurality of input operations, the range of determination when determining the style can be finely classified, so that a picture-like image to which a specific style selected from various styles is applied is generated. be able to.

<電子機器への適用例>
次に、上述した各実施形態に示した画像表示装置を適用した電子機器について、図面を参照して簡単に説明する。
<Application examples to electronic devices>
Next, an electronic apparatus to which the image display device described in each of the above embodiments is applied will be briefly described with reference to the drawings.

上述したような画像表示装置10は、例えばデジタルフォトフレームやデジタルカメラ、高機能携帯電話機(スマートフォン)、パーソナルコンピュータ等、種々の電子機器に良好に適用することができる。   The image display device 10 as described above can be favorably applied to various electronic devices such as a digital photo frame, a digital camera, a high-performance mobile phone (smart phone), and a personal computer.

図11、図12は、本発明に係る画像処理装置を適用した画像表示装置を搭載した電子機器の構成例を示す概略図である。図11(a)は、デジタルフォトフレームの構成例を示す斜視図であり、図11(b)、(c)は、デジタルカメラの構成例を示す斜視図である。また、図12(a)は、高機能携帯電話機の構成例を示す斜視図であり、図12(b)は、パーソナルコンピュータの構成例を示す斜視図である。   FIG. 11 and FIG. 12 are schematic views showing an example of the configuration of an electronic apparatus equipped with an image display device to which the image processing apparatus according to the present invention is applied. FIG. 11A is a perspective view illustrating a configuration example of a digital photo frame, and FIGS. 11B and 11C are perspective views illustrating a configuration example of a digital camera. FIG. 12A is a perspective view illustrating a configuration example of a high-function mobile phone, and FIG. 12B is a perspective view illustrating a configuration example of a personal computer.

図11(a)において、デジタルフォトフレーム110は、概略、本体部111と、上述した各実施形態に示した、タッチパネルが一体的に構成された表示部112(上述した表示部31および入力部33に相当する)と、操作スイッチからなる操作部113(上述した操作部32に相当する)と、メモリカードスロット114(上述したメモリI/F部35に相当する)と、自立スタンド115とを備えている。これによれば、ユーザが表示部112に表示された原画像を参照して、当該表示部112に一体的に構成されたタッチパネルに対して直感的又は感覚的に入力動作を行うことにより、当該入力動作の程度に応じて原画像が特定の画風からなる絵画風画像に変換されて表示部112に表示される。   In FIG. 11A, a digital photo frame 110 schematically includes a main body 111 and a display unit 112 (the display unit 31 and the input unit 33 described above) in which the touch panel shown in the above-described embodiments is integrally formed. An operation unit 113 (corresponding to the operation unit 32 described above), a memory card slot 114 (corresponding to the memory I / F unit 35 described above), and a self-supporting stand 115. ing. According to this, when the user refers to the original image displayed on the display unit 112 and performs an input operation intuitively or sensibly on the touch panel configured integrally with the display unit 112, the Depending on the degree of input operation, the original image is converted into a picture-like image having a specific style and displayed on the display unit 112.

図11(b)、(c)において、デジタルカメラ120は、概略、本体部121と、レンズ部122と、上述した各実施形態に示した、タッチパネルが一体的に構成された表示部123(上述した表示部31および入力部33に相当する)と、操作スイッチからなる操作部124(上述した操作部32に相当する)と、シャッターボタン125とを備えている。この場合においても、ユーザが表示部123に表示された原画像を参照して、当該表示部123に一体的に構成されたタッチパネルに対して直感的又は感覚的に入力動作を行うことにより、当該入力動作の程度に応じて原画像が特定の画風からなる絵画風画像に変換されて表示部123に表示される。   In FIGS. 11B and 11C, the digital camera 120 schematically includes a main body 121, a lens unit 122, and a display unit 123 (described above) in which the touch panel shown in each of the above-described embodiments is integrally formed. The display unit 31 and the input unit 33), an operation unit 124 including operation switches (corresponding to the operation unit 32 described above), and a shutter button 125. Even in this case, the user refers to the original image displayed on the display unit 123 and performs an input operation intuitively or sensibly on the touch panel integrated with the display unit 123. Depending on the degree of input operation, the original image is converted into a picture-like image having a specific style and displayed on the display unit 123.

また、図12(a)において、高機能携帯電話機130は、概略、本体部131と、上述した各実施形態に示した、タッチパネルが一体的に構成された表示部132(上述した表示部31および入力部33に相当する)と、操作スイッチからなる操作部133(上述した操作部32に相当する)とを備えている。この場合においても、ユーザが表示部132に表示された原画像を参照して、当該表示部132に一体的に構成されたタッチパネルに対して直感的又は感覚的に入力動作を行うことにより、当該入力動作の程度に応じて原画像が特定の画風からなる絵画風画像に変換されて表示部132に表示される。   In FIG. 12A, the high-function mobile phone 130 is roughly composed of a main body 131 and a display unit 132 (indicated by the display unit 31 and the above-described unit) that is configured integrally with the touch panel shown in each of the above-described embodiments. And an operation unit 133 (corresponding to the operation unit 32 described above) composed of operation switches. Also in this case, the user refers to the original image displayed on the display unit 132 and performs an input operation intuitively or sensibly on the touch panel configured integrally with the display unit 132. Depending on the degree of input operation, the original image is converted into a picture-like image having a specific style and displayed on the display unit 132.

また、図12(b)において、デスクトップ型のパーソナルコンピュータ140は、概略、本体部141と、表示部142(上述した表示部31に相当する)と、キーボード143(上述した操作部32に相当する)と、ペンタブレット144(上述した入力部33に相当する)とを備えている。これによれば、ユーザが表示部142に表示された原画像を参照して、ペンタブレット144に対して直感的又は感覚的に入力動作を行うことにより、当該入力動作の程度に応じて原画像が特定の画風からなる絵画風画像に変換されて表示部142に表示される。なお、本適用例においては、上述した表示部31に相当する表示部142と、入力部33に相当するペンタブレット144が別個の構成をなす場合について示したが、上述した各実施形態と同様に、表示部142にタッチパネルが一体的に構成されたものであってもよい。また、パーソナルコンピュータ140は、デスクトップ型に限定されるものではなく、ノート型やタブレット型であってもよい。   In FIG. 12B, a desktop personal computer 140 is roughly represented by a main body 141, a display unit 142 (corresponding to the display unit 31 described above), and a keyboard 143 (corresponding to the operation unit 32 described above). ) And a pen tablet 144 (corresponding to the input unit 33 described above). According to this, by referring to the original image displayed on the display unit 142 by the user and performing an input operation intuitively or sensuously with respect to the pen tablet 144, the original image according to the degree of the input operation. Is converted into a picture-like image having a specific style and displayed on the display unit 142. In this application example, the case where the display unit 142 corresponding to the display unit 31 described above and the pen tablet 144 corresponding to the input unit 33 have different configurations has been described. However, as in the above-described embodiments. In addition, a touch panel may be integrated with the display unit 142. The personal computer 140 is not limited to a desktop type, and may be a notebook type or a tablet type.

したがって、上述したような種々の電子機器において、ユーザの直感的又は感覚的な入力動作の程度に応じて、絵画風画像に適用される画風が設定されるという、新たな画像変換の手法を提示することができるので、ユーザの画像変換に対する興味や、当該画像変換機能を備えた電子機器に対する興味を高めることができる。   Therefore, in various electronic devices as described above, a new image conversion method is presented in which a style applied to a picture-like image is set according to the degree of an intuitive or sensory input operation of the user. Therefore, the user's interest in image conversion and interest in an electronic device having the image conversion function can be increased.

以上、本発明のいくつかの実施形態について説明したが、本発明は、上述した実施形態に限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
As mentioned above, although some embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It includes the invention described in the claim, and its equivalent range.
Hereinafter, the invention described in the scope of claims of the present application will be appended.

(付記)
請求項1に記載の発明は、
原画像データを記憶する原画像記憶手段と、
ユーザの入力動作の程度に従って決定された変数値に応じて、複数の画風の中から1つの画風を選択する画風選択手段と、
選択された前記1つの画風となるように前記原画像を変換して、変換画像を生成する画像変換手段と、
を備えることを特徴とする画像処理装置である。
(Appendix)
The invention described in claim 1
Original image storage means for storing original image data;
Style selection means for selecting one style from among a plurality of styles according to a variable value determined according to the degree of user input operation;
Image conversion means for converting the original image to generate the selected image and generating a converted image;
An image processing apparatus comprising:

請求項2に記載の発明は、
前記複数の画風は、第1の画風と第2の画風とを含み、
前記画風選択手段は、
前記変数値が所定値以上であるときに、前記第1の画風を選択し、
前記変数値が所定値よりも小さいときに、前記第2の画風を選択することを特徴とする請求項1記載の画像処理装置である。
The invention described in claim 2
The plurality of styles include a first style and a second style,
The style selection means includes:
When the variable value is equal to or greater than a predetermined value, the first style is selected,
The image processing apparatus according to claim 1, wherein the second style is selected when the variable value is smaller than a predetermined value.

請求項3に記載の発明は、
前記変数は、前記ユーザの入力動作の速さ、前記ユーザの入力動作の持続時間、および、前記ユーザの入力動作の強さのうちの少なくとも一つを規定するものであることを特徴とする請求項1又は2記載の画像処理装置である。
The invention according to claim 3
The variable defines at least one of a speed of the user input operation, a duration of the user input operation, and a strength of the user input operation. Item 3. The image processing device according to Item 1 or 2.

請求項4に記載の発明は、
被接触面を有し、前記ユーザの入力動作による前記被接触面上における接触位置を検出する検出手段としての位置検出手段をさらに備え、
前記変数は、前記ユーザの入力動作の速さを規定するものであり、
前記位置検出手段により検出される、前記ユーザの入力動作による前記被接触面上における前記接触位置の変位に基づいて、前記ユーザの入力動作の前記速さが計算されることを特徴とする請求項3記載の画像処理装置である。
The invention according to claim 4
A position detecting unit having a contacted surface and detecting a contact position on the contacted surface by an input operation of the user;
The variable defines the speed of the user's input operation,
The speed of the user input operation is calculated based on a displacement of the contact position on the contacted surface by the user input operation detected by the position detection means. 3. The image processing apparatus according to 3.

請求項5に記載の発明は、
被接触面を有し、前記ユーザの入力動作による前記被接触面への接触状態を検出する検出手段としての接触状態検出手段をさらに備え、
前記変数は、前記ユーザの入力動作の持続時間を規定するものであり、
前記接触状態検出手段により検出される、前記ユーザの入力動作による前記被接触面への前記接触状態の時間変位に基づいて、前記ユーザの入力動作の前記持続時間が計算されることを特徴とする請求項3記載の画像処理装置である。
The invention described in claim 5
A contact state detection means as a detection means having a contact surface and detecting a contact state to the contact surface by the user's input operation;
The variable defines the duration of the user's input action,
The duration of the user's input operation is calculated based on a time displacement of the contact state to the contacted surface by the user's input operation detected by the contact state detecting means. An image processing apparatus according to claim 3.

請求項6に記載の発明は、
被接触面を有し、前記ユーザの入力動作による前記被接触面への押圧力を検出する検出手段としての力検出手段をさらに備え、
前記変数は、前記ユーザの入力動作の強さを規定するものであり、
前記力検出手段により検出される、前記ユーザの入力動作による前記被接触面への前記押圧力に基づいて、前記ユーザの入力動作の前記強さが計算されることを特徴とする請求項3記載の画像処理装置である。
The invention described in claim 6
A force detecting means as a detecting means for detecting a pressing force to the contacted surface by the user's input operation;
The variable defines the strength of the user's input operation,
4. The strength of the input operation of the user is calculated based on the pressing force applied to the contacted surface by the input operation of the user detected by the force detection means. This is an image processing apparatus.

請求項7に記載の発明は、
前記原画像および前記変換画像を表示する表示手段と、
前記検出手段の前記被接触面への前記ユーザの入力動作による接触位置を、前記表示手段に表示された前記原画像の対応する位置に表示する表示制御手段をさらに備えることを特徴とする請求項4乃至6のいずれか一項に記載の画像処理装置である。
The invention described in claim 7
Display means for displaying the original image and the converted image;
The display control means for displaying a contact position by the user's input operation on the contacted surface of the detection means at a corresponding position of the original image displayed on the display means. The image processing apparatus according to any one of 4 to 6.

請求項8に記載の発明は、
少なくとも、前記検出手段および前記表示手段は、通信手段を介して、前記画風選択手段および前記画像変換手段に接続されていることを特徴とする請求項7記載の画像処理装置である。
The invention according to claim 8 provides:
8. The image processing apparatus according to claim 7, wherein at least the detection unit and the display unit are connected to the style selection unit and the image conversion unit via a communication unit.

請求項9に記載の発明は、
ユーザの入力動作の程度に従って変数の値を決定する変数値決定手段をさらに備えることを特徴とする請求項1乃至8のいずれか一項に記載の画像処理装置である。
The invention according to claim 9 is:
The image processing apparatus according to claim 1, further comprising: a variable value determining unit that determines a value of the variable according to a degree of a user input operation.

請求項10に記載の発明は、
原画像を所定の画風となるように変換して、変換画像を生成する画像処理方法において、
ユーザの入力動作の程度を規定する変数の値を決定する変数値決定処理と、
決定された前記変数値に応じて、複数の画風の中から1つの画風を選択する画風選択処理と、
選択された前記1つの画風となるように前記原画像を変換して、前記変換画像を生成する画像変換処理と、
を含むことを特徴とする画像処理方法である。
The invention according to claim 10 is:
In an image processing method for converting an original image into a predetermined style and generating a converted image,
A variable value determination process that determines the value of a variable that defines the degree of user input action;
Style selection processing for selecting one style from a plurality of styles according to the determined variable value;
An image conversion process for generating the converted image by converting the original image so as to have the selected one style;
The image processing method characterized by including.

請求項11に記載の発明は、
前記変数は、前記ユーザの入力動作の速さ、前記ユーザの入力動作の持続時間、および、前記ユーザの入力動作の強さのうちの少なくとも一つを規定するものであることを特徴とする請求項10記載の画像処理方法である。
The invention according to claim 11
The variable defines at least one of a speed of the user input operation, a duration of the user input operation, and a strength of the user input operation. Item 11. The image processing method according to Item 10.

請求項12に記載の発明は、
コンピュータに画像処理装置を制御させて、原画像を所定の画風となるように変換して、変換画像を生成する画像処理プログラムであって、
ユーザの入力動作の程度を規定する変数の値を決定する変数値決定処理と、
決定された前記変数値に応じて、複数の画風の中から1つの画風を選択する画風選択処理と、
選択された前記1つの画風となるように前記原画像を変換して、前記変換画像を生成する画像変換処理と、
を実行させることを特徴とする画像処理プログラムである。
The invention according to claim 12
An image processing program for causing a computer to control an image processing apparatus, converting an original image to have a predetermined style, and generating a converted image,
A variable value determination process that determines the value of a variable that defines the degree of user input action;
Style selection processing for selecting one style from a plurality of styles according to the determined variable value;
An image conversion process for generating the converted image by converting the original image so as to have the selected one style;
Is an image processing program characterized by causing

10 画像表示装置
20 データ処理部
21 CPU
24 内部メモリ
25 表示制御部
26 画像処理部
30 ユーザI/F部
31 表示部
32 操作部
33 入力部
34 通信部
50 ネットワーク
60 ホストコンピュータ
PHT 原画像
PEN タッチペン
LOC 軌跡
SPA〜SPE 指定領域
PIC、PICa、PICb 絵画風画像
DESCRIPTION OF SYMBOLS 10 Image display apparatus 20 Data processing part 21 CPU
24 internal memory 25 display control unit 26 image processing unit 30 user I / F unit 31 display unit 32 operation unit 33 input unit 34 communication unit 50 network 60 host computer PHT original image PEN touch pen LOC locus SPA to SPE designated area PIC, PICa, PICb painting style image

Claims (10)

原画像データを記憶する原画像記憶手段と、
ユーザの入力動作の程度に従って決定された変数値に応じて、複数の画風の中から1つの画風を選択する画風選択手段と、
前記画風選択手段によって選択された前記1つの画風となるように前記原画像を変換して、変換画像を生成する画像変換手段と、を備え、
前記変数値は、前記ユーザの入力動作の速さ、前記ユーザの入力動作の持続時間、および、前記ユーザの入力動作の強さのうちの少なくとも一つを規定するものであることを特徴とする画像処理装置。
Original image storage means for storing original image data;
Style selection means for selecting one style from among a plurality of styles according to a variable value determined according to the degree of user input operation ;
Image conversion means for converting the original image so as to be the one style selected by the style selection means, and generating a converted image,
The variable value defines at least one of a speed of the user input operation, a duration of the user input operation, and a strength of the user input operation. Image processing device.
前記複数の画風は、第1の画風と第2の画風とを含み、
前記画風選択手段は、
前記変数値が所定値以上であるときに、前記第1の画風を選択し、
前記変数値が所定値よりも小さいときに、前記第2の画風を選択することを特徴とする請求項記載の画像処理装置。
The plurality of styles include a first style and a second style,
The style selection means includes:
When the variable value is equal to or greater than a predetermined value, the first style is selected,
When the variable value is smaller than the predetermined value, the image processing apparatus according to claim 1, wherein the selecting the second painting style.
被接触面を有し、前記ユーザの入力動作による前記被接触面上における接触位置を検出する検出手段としての位置検出手段をさらに備え、
前記変数値は、前記ユーザの入力動作の速さを規定するものであり、
前記位置検出手段により検出される、前記ユーザの入力動作による前記被接触面上における前記接触位置の変位に基づいて、前記ユーザの入力動作の前記速さが計算されることを特徴とする請求項1又は2に記載の画像処理装置。
A position detecting unit having a contacted surface and detecting a contact position on the contacted surface by an input operation of the user;
The variable value defines the speed of the user's input operation,
The speed of the user input operation is calculated based on a displacement of the contact position on the contacted surface by the user input operation detected by the position detection means. The image processing apparatus according to 1 or 2 .
被接触面を有し、前記ユーザの入力動作による前記被接触面への接触状態を検出する検出手段としての接触状態検出手段をさらに備え、
前記変数値は、前記ユーザの入力動作の持続時間を規定するものであり、
前記接触状態検出手段により検出される、前記ユーザの入力動作による前記被接触面への前記接触状態の時間変位に基づいて、前記ユーザの入力動作の前記持続時間が計算されることを特徴とする請求項1又は2に記載の画像処理装置。
A contact state detection means as a detection means having a contact surface and detecting a contact state to the contact surface by the user's input operation;
The variable value defines the duration of the input operation of the user,
The duration of the user's input operation is calculated based on a time displacement of the contact state to the contacted surface by the user's input operation detected by the contact state detecting means. the image processing apparatus according to claim 1 or 2.
被接触面を有し、前記ユーザの入力動作による前記被接触面への押圧力を検出する検出手段としての力検出手段をさらに備え、
前記変数値は、前記ユーザの入力動作の強さを規定するものであり、
前記力検出手段により検出される、前記ユーザの入力動作による前記被接触面への前記押圧力に基づいて、前記ユーザの入力動作の前記強さが計算されることを特徴とする請求項1又は2に記載の画像処理装置。
A force detecting means as a detecting means for detecting a pressing force to the contacted surface by the user's input operation;
The variable value defines the strength of the input operation of the user,
Detected by the force detecting means, wherein based on the pressing force to the contacted surface by the input operation of the user, according to claim 1 or the intensity of the input operation of the user, characterized in that it is calculated 2. The image processing apparatus according to 2.
前記原画像および前記変換画像を表示する表示手段と、
前記検出手段の前記被接触面への前記ユーザの入力動作による接触位置を、前記表示手段に表示された前記原画像の対応する位置に表示する表示制御手段をさらに備えることを特徴とする請求項乃至のいずれか一項に記載の画像処理装置。
Display means for displaying the original image and the converted image;
The display control means for displaying a contact position by the user's input operation on the contacted surface of the detection means at a corresponding position of the original image displayed on the display means. The image processing apparatus according to any one of 3 to 5 .
少なくとも、前記検出手段および前記表示手段は、通信手段を介して、前記画風選択手段および前記画像変換手段に接続されていることを特徴とする請求項記載の画像処理装置。 The image processing apparatus according to claim 6 , wherein at least the detection unit and the display unit are connected to the style selection unit and the image conversion unit via a communication unit. ユーザの入力動作の程度に従って変数の値を決定する変数値決定手段をさらに備えることを特徴とする請求項1乃至のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 7, further comprising a variable value determining means for determining the value of the variable according to the degree of the input operation of the user. 原画像を変換して、変換画像を生成する画像処理方法において、
ユーザの入力動作の程度を規定する変数の値を決定する変数値決定処理と、
決定された前記変数値に応じて、複数の画風の中から1つの画風を選択する画風選択処理と、
選択された前記1つの画風となるように前記原画像を変換して、前記変換画像を生成する画像変換処理と、
を含み、
前記変数値は、前記ユーザの入力動作の速さ、前記ユーザの入力動作の持続時間、および、前記ユーザの入力動作の強さのうちの少なくとも一つを規定するものであることを特徴とする画像処理方法。
In an image processing method for converting an original image and generating a converted image,
A variable value determination process that determines the value of a variable that defines the degree of user input action;
Style selection processing for selecting one style from a plurality of styles according to the determined variable value ;
An image conversion process for generating the converted image by converting the original image so as to have the selected one style ;
Including
The variable value defines at least one of a speed of the user input operation, a duration of the user input operation, and a strength of the user input operation. Image processing method.
コンピュータに画像処理装置を制御させて、原画像を変換して、変換画像を生成する画像処理プログラムであって、
ユーザの入力動作の程度を規定する変数の値を決定する変数値決定処理と、
決定された前記変数値に応じて、複数の画風の中から1つの画風を選択する画風選択処理と、
選択された前記1つの画風となるように前記原画像を変換して、前記変換画像を生成する画像変換処理と、
を実行させ、
前記変数値は、前記ユーザの入力動作の速さ、前記ユーザの入力動作の持続時間、および、前記ユーザの入力動作の強さのうちの少なくとも一つを規定するものであることを特徴とする画像処理プログラム。
An image processing program for causing a computer to control an image processing apparatus, converting an original image, and generating a converted image,
A variable value determination process that determines the value of a variable that defines the degree of user input action;
Style selection processing for selecting one style from a plurality of styles according to the determined variable value ;
An image conversion process for generating the converted image by converting the original image so as to have the selected one style ;
And execute
The variable value defines at least one of a speed of the user input operation, a duration of the user input operation, and a strength of the user input operation. Image processing program.
JP2011105256A 2011-05-10 2011-05-10 Image processing apparatus, image processing method, and image processing program Expired - Fee Related JP5800216B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011105256A JP5800216B2 (en) 2011-05-10 2011-05-10 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011105256A JP5800216B2 (en) 2011-05-10 2011-05-10 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2012238086A JP2012238086A (en) 2012-12-06
JP5800216B2 true JP5800216B2 (en) 2015-10-28

Family

ID=47460951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011105256A Expired - Fee Related JP5800216B2 (en) 2011-05-10 2011-05-10 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP5800216B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6414982B2 (en) * 2015-08-28 2018-10-31 富士フイルム株式会社 Product image display control device, product image display control method, and program
JP6005831B1 (en) * 2015-12-28 2016-10-12 株式会社Cygames Program and information processing method
JP6758922B2 (en) * 2016-06-01 2020-09-23 キヤノン株式会社 Electronic devices and their control methods
JP6784544B2 (en) * 2016-09-07 2020-11-11 株式会社Cygames Program and information processing method
JP7382803B2 (en) 2019-11-15 2023-11-17 株式会社フジ医療器 massage system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0825360B2 (en) * 1991-12-27 1996-03-13 株式会社島精機製作所 Oil painting style manufacturing method
WO2004014068A1 (en) * 2002-08-05 2004-02-12 Nikon Corporation Camera and image correction device

Also Published As

Publication number Publication date
JP2012238086A (en) 2012-12-06

Similar Documents

Publication Publication Date Title
US11269481B2 (en) Dynamic user interactions for display control and measuring degree of completeness of user gestures
US20220129060A1 (en) Three-dimensional object tracking to augment display area
US11048333B2 (en) System and method for close-range movement tracking
CN104714733B (en) Image processing equipment and sense of touch control method
JP5453246B2 (en) Camera-based user input for compact devices
CN102915112B (en) For the system and method for closely motion tracking
JP6288084B2 (en) Display control device, display control method, and recording medium
KR20130088104A (en) Mobile apparatus and method for providing touch-free interface
JP5800216B2 (en) Image processing apparatus, image processing method, and image processing program
US20220317776A1 (en) Methods for manipulating objects in an environment
JPWO2010038822A1 (en) Information processing apparatus, information processing method, information storage medium, and program
JP2007041866A (en) Information processing device, information processing method, and program
JP2017518553A (en) Method for identifying user operating mode on portable device and portable device
US10754446B2 (en) Information processing apparatus and information processing method
CN107172347B (en) Photographing method and terminal
JP6004103B2 (en) Information processing apparatus and program
TWI361093B (en) Measuring object contour method and measuring object contour apparatus
US11100317B2 (en) Drawing device and drawing method
JP6501806B2 (en) INFORMATION PROCESSING APPARATUS, OPERATION DETECTING METHOD, AND COMPUTER PROGRAM
US20220283698A1 (en) Method for operating an electronic device in order to browse through photos
CN113703577A (en) Drawing method and device, computer equipment and storage medium
CN112529770A (en) Image processing method, image processing device, electronic equipment and readable storage medium
JP2015122124A (en) Information apparatus with data input function by virtual mouse
JP3201596U (en) Operation input device
JP5733056B2 (en) Data input method with virtual mouse

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150813

R150 Certificate of patent or registration of utility model

Ref document number: 5800216

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees