JP2011175309A - Image processing apparatus and program - Google Patents

Image processing apparatus and program Download PDF

Info

Publication number
JP2011175309A
JP2011175309A JP2010036788A JP2010036788A JP2011175309A JP 2011175309 A JP2011175309 A JP 2011175309A JP 2010036788 A JP2010036788 A JP 2010036788A JP 2010036788 A JP2010036788 A JP 2010036788A JP 2011175309 A JP2011175309 A JP 2011175309A
Authority
JP
Japan
Prior art keywords
image
character
conversion
effect
converted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010036788A
Other languages
Japanese (ja)
Inventor
Hiroshi Shimizu
博 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010036788A priority Critical patent/JP2011175309A/en
Publication of JP2011175309A publication Critical patent/JP2011175309A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a nonrealistic image including characters such as a signature so as not to be displayed in the background. <P>SOLUTION: First filtering is applied to recorded photographic image data, using a specific art filter (S11). After parameters of the art filter are changed (S12), second filtering is applied to signature or other image data, using the changed parameter of the art filter (S13). The filtered signature or other image data is combined with the filtered photographic image data to generate data of a nonrealistic image including characters such as a signature (S15, S16). In the nonrealistic image with the generated characters, the character part and the background image part can be visually distinguished. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、文字を含む非写実的画像を原画像から生成する画像処理技術に関するものである。   The present invention relates to an image processing technique for generating a non-realistic image including characters from an original image.

従来、例えば下記特許文献1には、デジタルカメラ等により撮影され画像データとして記録された撮影画像を絵画風の画像等に変換する技術が記載されている。一般に、撮影画像(写真)のような写実的な画像は写実的画像と呼ばれ、絵画風の画像や、コンピュータグラフックによる画像等のように写実的ではない画像は非写実的画像と呼ばれている。   Conventionally, for example, Patent Document 1 described below describes a technique for converting a photographed image photographed by a digital camera or the like and recorded as image data into a picture-like image or the like. In general, a photorealistic image such as a photographed image (photograph) is called a photorealistic image, and a non-photographic image such as a picture-like image or a computer graphic image is called a non-photorealistic image. Yes.

一方、撮影画像を例えば絵画風の画像等の非写実的画像に変換し、新たな作品として鑑賞をする場合には、撮影画像に予めサイン等の文字を付加しておけば、より鑑賞に適した非写実的画像を得ることができる。画像に文字を付加する技術については、下記特許文献2等において公知である。   On the other hand, when a photographed image is converted into a non-realistic image such as a picture-like image and is viewed as a new work, adding characters such as a signature to the photographed image in advance makes it more suitable for viewing. A non-realistic image can be obtained. A technique for adding characters to an image is known in Patent Document 2 below.

特開2006−31688号公報JP 2006-31688 A 特開平11−187292号公報Japanese Patent Laid-Open No. 11-187292

しかしながら、サイン等の文字を付加した撮影画像を非写実的画像に変換する場合には、変換後の非写実的画像に与えられる効果の内容によってはサインが判読しづらくなる。つまりサインが背景となる画像部分に埋もれてしまうという問題があった。   However, when a photographed image to which a character such as a signature is added is converted into a non-realistic image, the sign becomes difficult to read depending on the content of the effect given to the converted non-realistic image. That is, there is a problem that the sign is buried in the background image portion.

本発明は、かかる従来の課題に鑑みてなされたものであり、サイン等の文字を含む非写実的画像として、文字が背景部分に埋もれていない非写実的画像を提供することを目的とする。   The present invention has been made in view of such conventional problems, and an object thereof is to provide a non-realistic image in which characters are not buried in a background portion as a non-realistic image including characters such as a signature.

本発明の第1の観点に係る画像処理装置にあっては、原画像を、第1の視覚的効果を与えた非写実的画像に変換する第1の変換手段と、前記第1の画像変換手段により変換された非写実的画像に合成すべき文字を、前記第1の視覚的効果とは内容の異なる第2の視覚的効果を与えた効果付き文字に変換する第2の変換手段と、第1の画像変換手段により変換された非写実的画像に、前記第2の変換手段により変換された効果付き文字を合成し、文字を含む非写実的画像を生成する合成手段とを備えたことを特徴とする。   In the image processing apparatus according to the first aspect of the present invention, a first conversion means for converting an original image into a non-realistic image having a first visual effect, and the first image conversion Second conversion means for converting a character to be combined with the non-realistic image converted by the means into a character with an effect having a second visual effect different in content from the first visual effect; A non-realistic image converted by the first image converting means, and a combining means for synthesizing the character with effect converted by the second converting means and generating a non-realistic image including the character. It is characterized by.

また、本発明の第1の観点に係るプログラムにあっては、コンピュータを、原画像を、第1の視覚的効果を与えた非写実的画像に変換する第1の変換手段と、前記第1の画像変換手段により変換された非写実的画像に合成すべき文字を、前記第1の視覚的効果とは内容の異なる第2の視覚的効果を与えた効果付き文字に変換する第2の変換手段と、前記第1の画像変換手段により変換された非写実的画像に、前記第2の変換手段により変換された効果付き文字を合成し、文字を含む非写実的画像を生成する合成手段として機能させることを特徴とする。   In the program according to the first aspect of the present invention, the computer converts the original image into a non-realistic image having a first visual effect, and the first conversion means. A second conversion for converting a character to be combined with the non-photorealistic image converted by the image conversion means into a character with an effect having a second visual effect different from the first visual effect. And a non-realistic image converted by the first image conversion means, and a non-realistic image converted by the second conversion means, and a non-realistic image including the character is generated as a synthesizing means It is made to function.

本発明によれば、サイン等の文字を含む非写実的画像として、文字が背景部分に埋もれていない非写実的画像を提供することができる。   According to the present invention, a non-realistic image in which characters are not buried in the background portion can be provided as a non-realistic image including characters such as a signature.

本発明に係るデジタルフォトフレームのハードウェア構成を示す概略ブロック図である。It is a schematic block diagram which shows the hardware constitutions of the digital photo frame concerning this invention. デジタルフォトフレームの機能の要部を示す機能ブロック図である。It is a functional block diagram which shows the principal part of the function of a digital photo frame. エフェクトモードにおけるCPUの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of CPU in an effect mode. (a)は、文字を含む非写実的画像の一例を示す図、(b)は、(a)の要部拡大図に相当する模式図である。(A) is a figure which shows an example of the non-realistic image containing a character, (b) is a schematic diagram corresponded to the principal part enlarged view of (a). 文字を含む非写実的画像の他の例を示す、図4(a)に対応する図である。It is a figure corresponding to Drawing 4 (a) showing other examples of a non-realistic picture containing a character.

以下、本発明の一実施形態について説明する。本実施形態は、主としてデジタルカメラ等により撮影され画像データとして記録された画像、つまり写真を表示する機能を有するデジタルフォトフレーム(以下、DPFという。)に関するものである。   Hereinafter, an embodiment of the present invention will be described. The present embodiment mainly relates to a digital photo frame (hereinafter referred to as DPF) having a function of displaying an image photographed by a digital camera or the like and recorded as image data, that is, a photograph.

図1は、本発明を適用したDPF1のハードウェア構成を示す概略ブロック図である。DPF1は、CPU(Central Processing Unit)101によってシステムの全体を制御される構成である。CPU101には、ROM(Read Only Memory)102、RAM(Random Access memory)103、メディアコントローラ104、操作キー群201、ディスプレイ301が接続されている。   FIG. 1 is a schematic block diagram showing a hardware configuration of a DPF 1 to which the present invention is applied. The DPF 1 has a configuration in which the entire system is controlled by a CPU (Central Processing Unit) 101. Connected to the CPU 101 are a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a media controller 104, an operation key group 201, and a display 301.

ROM102は、CPU101にシステム全体を制御させるための複数種のプログラムやデータが記憶されているメモリである。ROM102に記憶されているプログラムには、CPU101を本実施形態での第1の変換手段、第2の変換手段、合成手段、文字領域検出手段として機能させる表示制御プログラム102aが含まれる。   The ROM 102 is a memory in which a plurality of types of programs and data for causing the CPU 101 to control the entire system are stored. The programs stored in the ROM 102 include a display control program 102a that causes the CPU 101 to function as first conversion means, second conversion means, composition means, and character area detection means in the present embodiment.

また、ROM102に記憶されているデータには、CPU101が、任意の画像データを対象として文字認識処理を行う際に使用される、種々の文字の形状等の特徴を示す文字パターンデータ等が含まれる。文字認識処理は、画像データにより表される画像から文字が存在する文字領域を認識する処理である。   Further, the data stored in the ROM 102 includes character pattern data indicating characteristics such as various character shapes used when the CPU 101 performs character recognition processing on arbitrary image data. . The character recognition process is a process for recognizing a character area where a character exists from an image represented by image data.

RAM103は、具体的にはSDRAM(Synchronous dynamic random-access memory)等である。   The RAM 103 is specifically an SDRAM (Synchronous dynamic random-access memory) or the like.

メディアコントローラ104は、DPF1の図示しない本体に設けられているメモリカードスロットに着脱自在に装着された記録メディア40と、CPU101との間におけるデータの入出力を制御する入出力インターフェースである。   The media controller 104 is an input / output interface that controls input / output of data between the CPU 101 and a recording medium 40 that is detachably mounted in a memory card slot provided in a main body (not shown) of the DPF 1.

記録メディア40には、デジタルカメラ等において撮影により取得された画像(写真)を表す画像データが複数記録されている。画像データは、例えばJPEG(Joint Photographic Expert Group)方式により圧縮され、撮影日時等の付加情報と共に静止画ファイルとして記録メディア40に記憶されている。なお、以下の説明では撮影により取得された画像を撮影画像といい、撮影画像を表す画像データを撮影画像データという。   A plurality of image data representing images (photographs) acquired by photographing with a digital camera or the like are recorded on the recording medium 40. The image data is compressed by, for example, JPEG (Joint Photographic Expert Group) method, and is stored in the recording medium 40 as a still image file together with additional information such as the shooting date and time. In the following description, an image acquired by photographing is referred to as a photographed image, and image data representing the photographed image is referred to as photographed image data.

操作キー群201は、電源スイッチ及び複数の操作スイッチから構成される。CPU101は、操作キー群201における操作キー等の操作状態を定常的にスキャンすることにより、所定のキー操作によるユーザからの種々の指示を検知する。   The operation key group 201 includes a power switch and a plurality of operation switches. The CPU 101 detects various instructions from the user by predetermined key operations by constantly scanning the operation state of the operation keys and the like in the operation key group 201.

ディスプレイ301は、バックライト付きのカラー液晶表示パネルと、CPU101から供給される画像データ等の表示データに応じてカラー液晶表示パネルを駆動し、画像データにより表される画像等をカラー液晶表示パネルに表示させる駆動回路とから構成される。   The display 301 drives the color liquid crystal display panel with backlight and the color liquid crystal display panel according to display data such as image data supplied from the CPU 101, and displays the image represented by the image data on the color liquid crystal display panel. And a driving circuit to be displayed.

図2は、DPF1が有する機能の要部を示す機能ブロック図である。DPF1は、制御部10と、操作部20、表示部30を有している。制御部10は、文字領域検出部11と、第1の変換部12、第2の変換部13、画像合成部14、表示制御部15、記憶部16から構成される。   FIG. 2 is a functional block diagram showing the main part of the functions of the DPF 1. The DPF 1 includes a control unit 10, an operation unit 20, and a display unit 30. The control unit 10 includes a character area detection unit 11, a first conversion unit 12, a second conversion unit 13, an image composition unit 14, a display control unit 15, and a storage unit 16.

操作部20は、DPF1に対するユーザからの各種の指示を検知する機能部分であり、図1に示した操作キー群201により実現される。   The operation unit 20 is a functional part that detects various instructions from the user to the DPF 1, and is realized by the operation key group 201 shown in FIG.

表示部30は、記録メディア40に記録されている撮影画像データにより表される撮影画像や、他の画像データにより表される画像を表示したり、ユーザがDPF1を操作する際に必要とする各種の操作画面を表示したりする。表示部30は、図1に示したディスプレイ301により実現される。   The display unit 30 displays a photographed image represented by the photographed image data recorded on the recording medium 40, an image represented by other image data, and various types required when the user operates the DPF 1. Display the operation screen. The display unit 30 is realized by the display 301 illustrated in FIG.

文字領域検出部11は、記録メディア40に記録されている任意の撮影画像データに対して文字領域検出処理を行う。文字領域検出処理は、画像データにより表される撮影画像において文字が表現されている文字領域を検出し、検出した文字領域の画像内での位置を示す位置情報を取得する処理である。文字領域検出部11は、図1に示したCPU101により実現される。   The character area detection unit 11 performs a character area detection process on arbitrary captured image data recorded on the recording medium 40. The character area detection process is a process of detecting a character area in which a character is expressed in a captured image represented by image data, and acquiring position information indicating the position of the detected character area in the image. The character area detection unit 11 is realized by the CPU 101 shown in FIG.

第1の変換部12は、記録メディア40に記録されている任意の撮影画像データに、特定のフィルタ処理を施すことによって、処理対象の撮影画像データにより表される撮影画像(原画像)を、鑑賞を目的とした特定の視覚的効果を与えた非写実的画像に変換する。第1の変換部12が撮影画像に与える鑑賞を目的とした特定の視覚的効果が、本実施形態における第1の視覚的効果である。特定の視覚的効果は、例えば水彩画、油絵画、鉛筆画、パステル画等の特定の絵画の画風等である。   The first conversion unit 12 performs a specific filter process on arbitrary captured image data recorded on the recording medium 40, thereby obtaining a captured image (original image) represented by the captured image data to be processed. Convert to a non-realistic image with a specific visual effect for viewing purposes. The specific visual effect for the purpose of appreciation given to the photographed image by the first conversion unit 12 is the first visual effect in the present embodiment. The specific visual effect is, for example, a style of a specific painting such as a watercolor painting, an oil painting, a pencil drawing, or a pastel drawing.

第1の変換部12が、任意の撮影画像データに施すことができるフィルタ処理の種類は複数であり、第1の変換部12は複数種類の視覚的効果を変換後の非写実的画像に与えることができる。第1の変換部12は、図1に示したCPU101により実現される。   There are a plurality of types of filter processing that the first conversion unit 12 can apply to any photographed image data, and the first conversion unit 12 provides a plurality of types of visual effects to the converted non-realistic image. be able to. The first conversion unit 12 is realized by the CPU 101 illustrated in FIG.

第2の変換部13は、記録メディア40に記録されているサイン画像のデータ、又は文字領域検出部11が任意の画像から検出した文字領域の画像(以下、文字領域画像という。)を表すデータに、特定のフィルタ処理を施すことによって、サイン画像や文字領域画像を、特定の視覚的効果を与えた非写実的画像に変換する。   The second conversion unit 13 is data representing a signature image data recorded on the recording medium 40 or a character region image (hereinafter referred to as a character region image) detected by the character region detection unit 11 from an arbitrary image. In addition, by applying a specific filtering process, the sign image and the character area image are converted into a non-realistic image having a specific visual effect.

但し、第2の変換部13が行うフィルタ処理は、第1の変換部12が行うフィルタ処理とは内容が異なり、第2の変換部13が、サイン画像や文字領域画像に与える特定の視覚的効果は、第1の変換部12が原画像に与える視覚的効果とは異なるものである。第2の変換部12がサイン画像や文字領域画像に与える特定の視覚的効果が、本実施形態における第2の視覚的効果である。   However, the filtering process performed by the second conversion unit 13 is different from the filtering process performed by the first conversion unit 12, and the second conversion unit 13 performs a specific visual process applied to the signature image and the character area image. The effect is different from the visual effect that the first converter 12 gives to the original image. The specific visual effect that the second conversion unit 12 gives to the sign image and the character area image is the second visual effect in the present embodiment.

また、第2の変換部13によるフィルタ処理後のサイン画像や文字領域画像が、本実施形態における効果付き文字である。第2の変換部13は、図1に示したCPU101により実現される。   In addition, the sign image and the character area image after the filter processing by the second conversion unit 13 are characters with effects in the present embodiment. The second conversion unit 13 is realized by the CPU 101 shown in FIG.

なお、以下の説明においては、第1の変換部12が行うフィルタ処理を第1のフィルタ処理といい、かつ第2の変換部13が行うフィルタ処理を第2のフィルタ処理という。また、第1の変換部12による原画像の非写実的画像への変換、及び第2の変換部13によるサイン画像や文字領域画像の非写実的画像への変換をアート変換という。   In the following description, the filter process performed by the first converter 12 is referred to as a first filter process, and the filter process performed by the second converter 13 is referred to as a second filter process. The conversion of the original image into the non-real image by the first conversion unit 12 and the conversion of the signature image and the character area image into the non-real image by the second conversion unit 13 are referred to as art conversion.

画像合成部14は、第1の変換部12によるアート変換後の撮影画像を表す画像データに、第2の変換部13によるアート変換後のサイン画像や文字領域画像を表す画像データを合成することにより、文字を含む非写実的画像を表す画像データを生成する。画像合成部14は、図1に示したCPU101により実現される。   The image synthesizing unit 14 synthesizes image data representing a sign image and a character area image after the art conversion by the second conversion unit 13 with the image data representing the photographed image after the art conversion by the first conversion unit 12. Thus, image data representing a non-realistic image including characters is generated. The image composition unit 14 is implemented by the CPU 101 illustrated in FIG.

表示制御部15は、記録メディア40に記録されている任意の画像データにより表される画像や、画像合成部14が生成した画像データにより表される文字を含む非写実的画像を表示部30に表示させる。表示制御部15は、図1に示したCPU101により実現される。   The display control unit 15 displays an image represented by arbitrary image data recorded on the recording medium 40 or a non-realistic image including characters represented by the image data generated by the image composition unit 14 on the display unit 30. Display. The display control unit 15 is realized by the CPU 101 shown in FIG.

記憶部16は、文字領域検出部11が任意の画像から検出した文字領域画像を表すデータである文字領域画像データや、表示制御部15が表示部30に表示させる種々の画像のデータを一時的に記憶する。記憶部16は、図1に示したRAM103により実現される。   The storage unit 16 temporarily stores character region image data, which is data representing a character region image detected from an arbitrary image by the character region detection unit 11, and various image data to be displayed on the display unit 30 by the display control unit 15. To remember. The storage unit 16 is realized by the RAM 103 illustrated in FIG.

次に、以上の構成からなるDPF1の動作について説明する。DPF1には表示モードとして、通常モードとエフェクトモードとが用意されている。表示モードの切替は、ユーザが操作キー群201の所定の操作キーを操作することによって適宜可能となっている。   Next, the operation of the DPF 1 having the above configuration will be described. The DPF 1 has a normal mode and an effect mode as display modes. The display mode can be appropriately switched by the user operating a predetermined operation key of the operation key group 201.

通常モードは、記録メディア40に記録されている撮影画像データにより表される撮影画像をディスプレイ301にそのまま表示する表示モードである。エフェクトモードは、撮影画像を、文字を含む非写実的画像に変換してディスプレイ301に表示する表示モードである。   The normal mode is a display mode in which a captured image represented by captured image data recorded on the recording medium 40 is displayed on the display 301 as it is. The effect mode is a display mode in which a captured image is converted into a non-realistic image including characters and displayed on the display 301.

以下、エフェクトモードにおけるDPF1の具体的な動作について説明する。エフェクトモードにおいてユーザは所定のキー操作によって、表示対象の撮影画像を選択する。   Hereinafter, a specific operation of the DPF 1 in the effect mode will be described. In the effect mode, the user selects a captured image to be displayed by a predetermined key operation.

図3は、エフェクトモードにおいて、制御部10(CPU101)がROM102に記憶されている表示制御プログラム102aに従って実行する処理であって、表示対象の撮影画像が選択された後の処理を示したフローチャートである。   FIG. 3 is a flowchart showing processing executed by the control unit 10 (CPU 101) in accordance with the display control program 102a stored in the ROM 102 in the effect mode, after the captured image to be displayed is selected. is there.

エフェクトモードにおいて制御部10は、表示対象の撮影画像が選択された後、ユーザにより選択された撮影画像を表す撮影画像データを記録メディア40から読み出し、記憶部16(RAM103)に一時記憶する(ステップS1)。   In the effect mode, after the captured image to be displayed is selected, the control unit 10 reads captured image data representing the captured image selected by the user from the recording medium 40 and temporarily stores it in the storage unit 16 (RAM 103) (step 103). S1).

次に、文字領域検出部11(CPU101)が、記憶部16に記憶された撮影画像データを処理対象として文字領域検出処理を行う(ステップS2)。ステップS2の処理において文字領域検出部11は、撮影画像データにより表される撮影画像において文字が表現されている文字領域を検出し、検出した文字領域の撮影画像内での位置を示す位置情報を取得する。   Next, the character area detection unit 11 (CPU 101) performs character area detection processing on the captured image data stored in the storage unit 16 as a processing target (step S2). In the process of step S2, the character area detection unit 11 detects a character area in which a character is expressed in the captured image represented by the captured image data, and obtains positional information indicating the position of the detected character area in the captured image. get.

文字領域検出部11による文字領域の検出方法は、例えば特開2009−259190公報に記載されている、特徴標準辞書の文字カテゴリの構造情報を利用して、文字画像から文字パターンを抽出する公知の技術等を適用した方法である。つまり特徴標準辞書の文字カテゴリと類似する特徴を有する領域を文字領域として検出する方法である。   A method of detecting a character region by the character region detection unit 11 is a known method for extracting a character pattern from a character image by using, for example, structure information of a character category of a feature standard dictionary described in Japanese Patent Application Laid-Open No. 2009-259190. It is a method to which technology is applied. That is, it is a method of detecting an area having a feature similar to the character category of the feature standard dictionary as a character area.

文字領域の検出が成功した場合(ステップS3:YES)、制御部10は、文字領域検出部11が検出した文字領域の画像データを撮影画像から切り出し(ステップS4)、切り出した画像データを、文字領域検出部11が取得した文字領域の位置情報と共に、撮影画像データとは別に記憶部16に一時記憶する(ステップS5)。ステップS4において制御部10が切り出す画像データは、撮影画像において表現されている背景を含まない文字のみを表す画像データである。   When the detection of the character area is successful (step S3: YES), the control unit 10 cuts out the image data of the character area detected by the character area detection unit 11 from the photographed image (step S4), Along with the position information of the character area acquired by the area detection unit 11, it is temporarily stored in the storage unit 16 separately from the captured image data (step S5). The image data cut out by the control unit 10 in step S4 is image data representing only characters that do not include the background expressed in the captured image.

一方、ステップS2の処理において文字領域が検出できなかった場合には(ステップS3:NO)、制御部10は、サイン画像の選択画面を表示部30(ディスプレイ301)に表示させる(ステップS6)。ステップS6において制御部10は、記録メディア40から、予め記録されている1又は複数のサイン画像データを読み出し、サイン画像データにより表されるサイン画像を表示部30に表示する。そして、制御部10は、ユーザに所定のキー操作によって所望するサイン画像を選択させる。   On the other hand, when the character area cannot be detected in the process of step S2 (step S3: NO), the control unit 10 displays a sign image selection screen on the display unit 30 (display 301) (step S6). In step S <b> 6, the control unit 10 reads one or a plurality of signature image data recorded in advance from the recording medium 40, and displays the signature image represented by the signature image data on the display unit 30. Then, the control unit 10 causes the user to select a desired sign image by a predetermined key operation.

その後、制御部10は、ユーザによりサイン画像が選択されたら(ステップS7:YES)、選択されたサイン画像を表すサイン画像データを記憶部16に一時記憶する(ステップS8)。   Thereafter, when a sign image is selected by the user (step S7: YES), the control unit 10 temporarily stores sign image data representing the selected sign image in the storage unit 16 (step S8).

つまり、ステップS2〜S8の処理によって、記憶部16には、撮影画像データから切り出された文字領域画像データ、又はサイン画像データのいずれか一方の画像データが一時記憶される。   That is, by the processing in steps S2 to S8, the storage unit 16 temporarily stores either one of the character area image data cut out from the captured image data or the sign image data.

引き続き、制御部10は、アートフィルタの選択画面を表示部30に表示させる(ステップS9)。ステップS6において制御部10は、DPF1に予め用意されている複数種類のフィルタ処理に応じてそれぞれ命名された複数種のアートフィルタの名称(記号でもよい。)を表示した選択画面を表示部30に表示する。そして、制御部10は、ユーザに所定のキー操作によって所望するアートフィルタを選択させる。   Subsequently, the control unit 10 causes the display unit 30 to display an art filter selection screen (step S9). In step S <b> 6, the control unit 10 displays a selection screen that displays names (may be symbols) of a plurality of types of art filters respectively named according to a plurality of types of filter processing prepared in advance in the DPF 1. indicate. Then, the control unit 10 causes the user to select a desired art filter by a predetermined key operation.

なお、アートフィルタとは、複数のフィルタ処理の種類をユーザに示すために使用される用語であり、例えば市販のソフトウエアパッケージであるAdobeシステム社によるAdobePhotoshop(商標)において用いられているような「アーティスティックフィルター」の種類を示す用語(「色鉛筆」、「水彩画」等)と同じものである。   The art filter is a term used to indicate a plurality of types of filter processing to the user. For example, as used in Adobe Photoshop (trademark) by Adobe System, which is a commercially available software package, “ It is the same as the term indicating the type of “artistic filter” (“color pencil”, “watercolor”, etc.).

その後、ユーザによりアートフィルタが選択されたら(ステップS10:YES)、第1の変換部12(CPU101)が、選択されたアートフィルタに対応する第1のフィルタ処理を、記憶部16に記憶されている処理対象の撮影画像データに施すアート変換を行う(ステップS11)。ステップS11において第1の変換部12は、アート変換後の撮影画像データ、つまり撮影画像に特定の視覚的効果を与えた非写実的画像を表す画像データを記憶部16に記憶する。   Thereafter, when the art filter is selected by the user (step S10: YES), the first conversion unit 12 (CPU 101) stores the first filter processing corresponding to the selected art filter in the storage unit 16. Art conversion to be performed on the captured image data to be processed is performed (step S11). In step S <b> 11, the first conversion unit 12 stores, in the storage unit 16, captured image data after art conversion, that is, image data representing a non-realistic image that gives a specific visual effect to the captured image.

第1の変換部12が処理対象の撮影画像データに施す第1のフィルタ処理は、例えば本発明の背景技術として説明した特開2006−31688号公報に記載されている下記の技術等の公知の技術を適用した方法によって、撮影画像データにより表される画像に特定の視覚的効果を与える処理である。特開2006−31688号公報に記載されている技術は、画像データに含まれる画素について、色などを判断基準の一つとして各画素をグループ化し、画像データを複数の基本領域に分割し、基本領域を表現の単位領域とする。さらに各々の基本領域の特徴に基づいて統合した複数の基本領域を表現の単位領域とする。そして、各々の単位領域の特徴に基づいて各々の単位領域に含まれる画素の色を決定する技術である。   The first filtering process performed by the first conversion unit 12 on the captured image data to be processed is a known technique such as the following technique described in Japanese Patent Laid-Open No. 2006-31688 described as the background art of the present invention. This is a process of giving a specific visual effect to an image represented by photographed image data by a method to which technology is applied. In the technique described in Japanese Patent Laid-Open No. 2006-31688, with respect to pixels included in image data, each pixel is grouped by using color as one of the determination criteria, and the image data is divided into a plurality of basic regions. Let the region be a unit region of expression. Further, a plurality of basic areas integrated based on the characteristics of each basic area are used as unit areas for expression. This is a technique for determining the color of a pixel included in each unit area based on the characteristics of each unit area.

また、第1のフィルタ処理は、例えばAdobeシステム社によるAdobePhotoshop(商標)において画像の加工に用いられている画像処理技術によっても実現することができる。   The first filter processing can also be realized by an image processing technique used for image processing in Adobe Photoshop (trademark) by Adobe System, for example.

次に、第2の変換部13(CPU101)が、第2のフィルタ処理の内容を設定する(ステップS12)。ステップS12の処理は、第1の変換部12が第1のフィルタ処理に際して使用した設定値を、第2の変換部13が第2のフィルタ処理において使用する設定値に変更する処理である。第2の変換部13が変更する設定値は、第1のフィルタ処理による変換後の非写実的画像に与える視覚的効果を左右する設定値である。   Next, the second conversion unit 13 (CPU 101) sets the content of the second filter process (step S12). The process of step S12 is a process of changing the set value used by the first conversion unit 12 in the first filter process to the set value used by the second conversion unit 13 in the second filter process. The setting value changed by the second conversion unit 13 is a setting value that affects the visual effect given to the non-realistic image after conversion by the first filter processing.

また、第2の変換部13が変更する設定値は、DPF1に予め用意されているフィルタ処理の種類毎に予め決められている規定の設定値であり、第1の変換部12が第1のフィルタ処理として実行したフィルタ処理に対応する規定の設定値である。規定の設定値は、例えばフィルタ処理後の画像内における筆触の太さ、筆触の密度、筆触の向きを左右する設定値である。ここで、筆触とは、絵画などにおける絵筆の効果、すなわち筆さばきによって生じた色調・明暗やリズム感などの表現を形成する絵筆の作用のことであり、筆ざわり、タッチと同義である。設定値が、フィルタ処理後の画像内における筆触の太さ、筆触の密度、筆触の向きを左右する設定値である場合、設定値には以下のような値が設定される。   The setting value changed by the second conversion unit 13 is a predetermined setting value determined in advance for each type of filter processing prepared in advance in the DPF 1, and the first conversion unit 12 sets the first conversion value to the first value. This is a specified set value corresponding to the filter process executed as the filter process. The prescribed set value is, for example, a set value that affects the thickness of the stroke, the density of the stroke, and the direction of the stroke in the filtered image. Here, the brush touch is an effect of a paint brush in a painting or the like, that is, an action of a paint brush that forms expressions such as color tone, light and darkness, and rhythm feeling generated by brush judgment, and is synonymous with touch and touch. When the setting value is a setting value that affects the thickness of the brush stroke, the density of the brush stroke, and the direction of the brush stroke in the image after the filter processing, the following value is set as the setting value.

設定値がフィルタ処理後の画像内における筆触の太さを左右する設定値である場合、変更後の設定値は、筆触の太さを、例えば変更前の設定値で得られる筆触の太さの3倍以上、又は3分の1以下の太さとする値である。つまり変更後における設定値は、筆触の太さを、変更前の設定値で得られる筆触の太さとの違いが見た目で分かる程度の太さとする値である。   When the setting value is a setting value that affects the thickness of the brush stroke in the image after filtering, the changed setting value is, for example, the thickness of the brush stroke obtained by the setting value before the change. The thickness is 3 times or more, or 1/3 or less. That is, the setting value after the change is a value that makes the thickness of the brush stroke thick enough to visually recognize the difference from the thickness of the brush stroke obtained with the setting value before the change.

また、設定値がフィルタ処理後の画像内における筆触の密度を左右する設定値である場合、変更後の設定値は、筆触の密度を、例えば変更前の設定値で得られる筆触の密度の2倍以上、又は2分の1以下の密度とする値である。つまり変更後における設定値は、筆触の密度を、変更前の設定値で得られる筆触の密度との違いが見た目で分かる程度の密度とする値である。ここで、フィルタ処理後の画像内における筆触の密度とは、例えばフィルタ処理後の画像内にハッチングとして認識される平行して点在する同一又は異なる長さの多数の線が表れる場合における線の本数である。   In addition, when the set value is a set value that affects the density of the brush in the image after the filter processing, the set value after the change is the touch density, for example, 2 of the touch density obtained by the set value before the change. It is a value that makes the density more than double or less than half. In other words, the set value after the change is a value at which the brush density is such that the difference from the touch density obtained with the set value before the change can be visually recognized. Here, the density of the brush stroke in the image after filtering is, for example, the line density when multiple lines of the same or different lengths scattered in parallel that are recognized as hatching appear in the image after filtering. It is the number.

また、設定値がフィルタ処理後の画像内における筆触の向きを左右する設定値である場合、変更後の設定値は、筆触の向きを、例えば変更前の設定値で得られる筆触の向きを、筆触の傾き角度が例えば30度〜90度異なる向きとする値である。つまり変更後における設定値は、筆触の向きを、変更前の設定値で得られる筆触の向きとの違いが見た目で分かる程度の向きとする値である。   Further, when the setting value is a setting value that influences the direction of the brush in the image after the filter processing, the setting value after the change indicates the direction of the brush, for example, the direction of the brush obtained by the setting value before the change, It is a value which makes the inclination angle of a brush different from 30 degrees to 90 degrees, for example. That is, the setting value after the change is a value that sets the direction of the brush so that the difference from the direction of the brush obtained by the setting value before the change can be visually recognized.

また、ステップS12の処理において第2の変換部13は、規定の設定値を変更する際、設定値の変更度合をサイン画像や文字領域画像の撮影画像の大きさに対する相対的な大きさに応じて変化させる。例えば第2の変換部13は、サイン画像や文字領域画像の大きさレベルを、予め決められている基準に従い「大」又は「小」のいずれのレベルであるか判断する。そして、第2の変換部13は、大きさレベルが「小」のときには、大きさレベルが「大」のときよりも大きな変更度合で設定値を変更する。   Further, in the process of step S12, the second conversion unit 13 changes the setting value according to the relative size with respect to the size of the photographic image of the sign image or the character area image when changing the specified setting value. Change. For example, the second conversion unit 13 determines whether the size level of the signature image or the character area image is “large” or “small” according to a predetermined standard. Then, when the magnitude level is “small”, the second converter 13 changes the set value with a greater degree of change than when the magnitude level is “large”.

引き続き、第2の変換部13は、第2のフィルタ処理を記憶部16に記憶されている文字領域画像データ、又はサイン画像データに施すアート変換を行う(ステップS13)。第2のフィルタ処理は、第1の変換部12による第1のフィルタ処理と同一のアルゴリズムによるフィルタ処理を、ステップS12の処理で変更した設定値を用いて行うフィルタ処理である。ステップS13において第2の変換部13は、アート変換後の文字領域画像データ、又はサイン画像データ、つまり撮影画像とは異なる特定の視覚的効果を与えた非写実的画像を表す画像データを記憶部16に記憶する。以下の説明では、ステップS13の処理で第2の変換部13が記憶部16に記憶する画像データにより表される非写実的画像を、便宜的に効果付き文字という。   Subsequently, the second conversion unit 13 performs art conversion for applying the second filter processing to the character area image data or the signature image data stored in the storage unit 16 (step S13). The second filter process is a filter process in which the filter process based on the same algorithm as the first filter process by the first converter 12 is performed using the setting value changed in the process of step S12. In step S13, the second conversion unit 13 stores character area image data after art conversion or sign image data, that is, image data representing a non-realistic image having a specific visual effect different from the photographed image. 16 to store. In the following description, the non-realistic image represented by the image data stored in the storage unit 16 by the second conversion unit 13 in the process of step S13 is referred to as a character with effect for convenience.

次に、画像合成部14(CPU101)が、まず、第2の変換部13における第2のフィルタ処理の対象がサイン画像であったか否かを確認する(ステップS14)。そして、画像合成部14は、第2のフィルタ処理の対象がサイン画像であった場合には(ステップS14:YES)、効果付き文字を表す画像データを、アート変換後の撮影画像の予め決められている特定位置に上書き合成する(ステップS15)。画像合成部14は、合成後の画像データを記憶部16に記憶する。   Next, the image composition unit 14 (CPU 101) first confirms whether or not the second filter processing target in the second conversion unit 13 is a sign image (step S14). When the second filter processing target is a sign image (step S14: YES), the image composition unit 14 determines image data representing the effect-added character as a photographed image after the art conversion. Overwriting is performed on the specified position (step S15). The image synthesis unit 14 stores the synthesized image data in the storage unit 16.

また、画像合成部14は、第2のフィルタ処理の対象が文字領域画像であった場合には(ステップS14:NO)、効果付き文字を表す画像データを、アート変換後の撮影画像における元の位置に上書き合成する(ステップS16)。画像合成部14は、合成後の画像データを記憶部16に記憶する。   In addition, when the second filter processing target is a character area image (step S14: NO), the image composition unit 14 converts the image data representing the effect-added character into the original image in the photographed image after the art conversion. The position is overwritten and synthesized (step S16). The image synthesis unit 14 stores the synthesized image data in the storage unit 16.

その後、表示制御部15(CPU101)が、ステップS15、又はステップS16の処理において記憶部16に記憶された合成後の画像データを表示部30(ディスプレイ301)へ送り、表示部30において文字を含む非写実的画像を表示させる(ステップS17)。   Thereafter, the display control unit 15 (CPU 101) sends the combined image data stored in the storage unit 16 in the process of step S15 or step S16 to the display unit 30 (display 301), and the display unit 30 includes characters. A non-realistic image is displayed (step S17).

図4(a)は、ステップS17の処理に伴いディスプレイ301に表示される文字を含む非写実的画像A、つまり背景となるアート変換後の撮影画像Bに効果付き文字Cが合成された画像の一例を示す図である。また、図4(b)は、効果付き文字Cの周辺を示す拡大図である。図4(b)は、第1のフィルタ処理によりアート変換後の撮影画像Bに与えられる視覚的効果と、第2のフィルタ処理によりアート変換後の効果付き文字Cに与えられる視覚的効果との違いが筆触の向きである場合を便宜的に示した図である。   FIG. 4A shows a non-realistic image A including characters displayed on the display 301 in the process of step S17, that is, an image in which the effected character C is combined with the photographed image B after art conversion as the background. It is a figure which shows an example. FIG. 4B is an enlarged view showing the periphery of the character C with effect. FIG. 4B shows a visual effect given to the photographed image B after the art conversion by the first filter processing and a visual effect given to the character C with the effect after the art conversion by the second filter processing. It is the figure which showed the case where a difference is the direction of a brush stroke for convenience.

また、図5は、アート変換後の撮影画像Bに与えられる視覚的効果と、アート変換後の効果付き文字Cに与えられる視覚的効果との違いが筆触の太さである場合の例を便宜的に示した図4(b)に対応する図である。   FIG. 5 shows an example in which the difference between the visual effect given to the photographed image B after the art conversion and the visual effect given to the character C with the effect after the art conversion is the thickness of the brush stroke. It is a figure corresponding to FIG.4 (b) shown in figure.

ここで、アート変換後の撮影画像Bに合成されるアート変換後の効果付き文字Cは、アート変換前の撮影画像から切り出された文字領域画像、又はサイン画像に、撮影画像とは異なる視覚的効果を与えた非写実的画像である。   Here, the post-art-converted character C combined with the photographed image B after the art conversion is a visual image that is different from the photographed image in the character area image or the sign image cut out from the photographed image before the art conversion. This is a non-realistic image that gives an effect.

そのため、効果付き文字Cには、背景のアート変換後の撮影画像Bとは異なる雰囲気を確保することができ、効果付き文字Cと背景のアート変換後の撮影画像Bとを視覚的に差別化することができる。よって、文字を含む非写実的画像として、文字が背景部分に埋もれていない非写実的画像を提供することができる。   Therefore, the character C with an effect can ensure a different atmosphere from the photographed image B after the background art conversion, and the character C with the effect and the photographed image B after the background art conversion are visually differentiated. can do. Therefore, a non-realistic image in which characters are not buried in the background portion can be provided as a non-realistic image including characters.

また、第2のフィルタ処理を、第1のフィルタ処理と同一のアルゴリズムによるフィルタ処理であるとともに、第1のフィルタ処理で使用した設定値を変更して使用する処理とし、かつ第1のフィルタ処理で使用した設定値の変更を以下のようにした。すなわち、第1のフィルタ処理で使用した設定値を、サイン画像や文字領域画像の大きさレベルが「小」のときには、大きさレベルが「大」のときよりも大きな変更度合で変更するようにした。したがって、効果付き文字が小さい場合には、アート変換後の撮影画像との雰囲気の違いを、効果付き文字が大きい場合に比べて顕著なものとすることにより、より確実に効果付き文字とアート変換後の撮影画像とを視覚的に差別化することができる。   Further, the second filter process is a filter process using the same algorithm as the first filter process, and is a process for changing and using the set value used in the first filter process. The first filter process Changed the setting value used in the following. That is, the setting value used in the first filter processing is changed with a greater degree of change when the size level of the sign image or the character area image is “small” than when the size level is “large”. did. Therefore, when the characters with effects are small, the difference in the atmosphere from the photographed image after the art conversion is more prominent than when the characters with effects are large, so that the characters with the effect and the art conversion are more reliably obtained. It is possible to visually differentiate from the later photographed image.

(変形等)
本実施形態においては、アート変換前の撮影画像のから切り出された文字領域画像、又はサイン画像に施す第2のフィルタ処理が、第1のフィルタ処理と同一のアルゴリズムによるフィルタ処理を、第1のフィルタ処理とは異なる設定値を用いて行う処理である構成について説明した。しかし、DPF1には、第2のフィルタ処理を第1のフィルタ処理とは全く異なるアルゴリズムに基づくフィルタ処理とした構成を採用してもよい。例えば第1のフィルタ処理を、撮影画像を油絵風の画像に変換する処理とするとともに、第2のフィルタ処理を、撮影画像を鉛筆画風の画像に変換する処理としてもよい。
(Deformation etc.)
In the present embodiment, the second filter processing applied to the character region image or the sign image cut out from the photographed image before the art conversion is the same as the first filter processing. The configuration that is processing performed using setting values different from the filter processing has been described. However, the DPF 1 may employ a configuration in which the second filter process is a filter process based on an algorithm that is completely different from the first filter process. For example, the first filter process may be a process for converting a photographed image into an oil painting-like image, and the second filter process may be a process for converting the photographed image into a pencil-like image.

また、第2のフィルタ処理は、文字領域画像、又はサイン画像の色を、単にアート変換後の撮影画像の合成箇所における背景色に対してネガポジ反転した色に変更する処理としてもよい。   The second filter process may be a process of simply changing the color of the character area image or the sign image to a color obtained by inverting the negative and positive colors with respect to the background color at the synthesized portion of the photographed image after the art conversion.

また、本実施形態においては、サイン画像を効果付き文字にアート変換し、アート変換後の撮影画像に合成するとき、効果付き文字をアート変換後の撮影画像の予め決められている特定位置に合成する場合について説明した。   In this embodiment, when a sign image is art-converted into a character with an effect and combined with a photographed image after the art conversion, the character with an effect is combined at a predetermined specific position of the photographed image after the art conversion. Explained when to do.

しかし、効果付き文字の合成位置を、予め決められた設定規則に従い自動的に設定するようにしてもよい。合成位置の設定規則としては、例えば(a)画像の隅であること、(b)画像の下部であること、(c)注目領域ではないこと、(d)ピントの合っている位置から離れていることの複数の条件をより多く満たすといったものである。なお、(c)の注目領域とは、例えば撮影画像から公知の顔検出技術により検出した人物の顔領域である。   However, the composition position of the character with effect may be automatically set according to a predetermined setting rule. For example, (a) the corner of the image, (b) the lower part of the image, (c) that it is not the attention area, and (d) a position away from the in-focus position. More than one of the multiple conditions of being. Note that the attention area (c) is, for example, a human face area detected from a captured image by a known face detection technique.

また、本実施形態においては、DPF1が非写実的画像に変換して表示する画像が、写真撮影により得られた画像(写真)である場合について説明した。しかし、本発明において非写実的画像への変換対象となる原画像は、写真撮影により得られた画像に限らず、例えば写真をスキャナで読み取り画像データとして記録されたものであっても構わない。   In the present embodiment, the case where the image displayed by the DPF 1 after being converted into a non-real image is an image (photograph) obtained by taking a photograph has been described. However, in the present invention, the original image to be converted into a non-real image is not limited to an image obtained by taking a photograph, and may be, for example, a photograph read by a scanner and recorded as image data.

また、本実施形態においては、本発明をDPFに採用した場合について説明したが、本発明は、所定の画像処理機能を備えたものであれば、DPF以外の他の装置にも適用することができる。他の装置としては、例えばデジタルカメラや、デジタルカメラが内蔵された携帯電話端末等の任意の携帯情報端末、汎用的なパーソナルコンピュータ、プリンタである。   In the present embodiment, the case where the present invention is applied to the DPF has been described. However, the present invention can be applied to apparatuses other than the DPF as long as they have a predetermined image processing function. it can. Other devices include, for example, a digital camera, an arbitrary portable information terminal such as a mobile phone terminal incorporating a digital camera, a general-purpose personal computer, and a printer.

1 DPF
10 制御部
11 文字領域検出部
12 第1の変換部
13 第2の変換部
14 画像合成部
15 表示制御部
16 記憶部
20 操作部
30 表示部
40 記録メディア
101 CPU
102 ROM
102a 表示制御プログラム
103 RAM
104 メディアコントローラ
201 操作キー群
301 ディスプレイ
A 文字を含む非写実的画像
B アート変換後の撮影画像
C 効果付き文字
1 DPF
DESCRIPTION OF SYMBOLS 10 Control part 11 Character area detection part 12 1st conversion part 13 2nd conversion part 14 Image composition part 15 Display control part 16 Storage part 20 Operation part 30 Display part 40 Recording medium 101 CPU
102 ROM
102a Display control program 103 RAM
104 Media controller 201 Operation key group 301 Display A Non-realistic image including characters B Photographed image after art conversion C Character with effect

Claims (4)

原画像を、第1の視覚的効果を与えた非写実的画像に変換する第1の変換手段と、
前記第1の画像変換手段により変換された非写実的画像に合成すべき文字を、前記第1の視覚的効果とは内容の異なる第2の視覚的効果を与えた効果付き文字に変換する第2の変換手段と、
第1の画像変換手段により変換された非写実的画像に、前記第2の変換手段により変換された効果付き文字を合成し、文字を含む非写実的画像を生成する合成手段と
を備えたことを特徴とする画像処理装置。
First conversion means for converting an original image into a non-realistic image having a first visual effect;
A character to be combined with the non-photorealistic image converted by the first image conversion means is converted into a character with an effect having a second visual effect different in content from the first visual effect. Two conversion means;
And a non-realistic image converted by the first image converting means, and a synthesizing means for synthesizing the character with effect converted by the second converting means and generating a non-realistic image including the character An image processing apparatus.
前記第2の変換手段は、
前記文字の筆触の太さ、筆触の密度、筆触の向きの少なくとも1つを、前記非写実的画像の筆触の太さ、筆触の密度、筆触の向きとは異なるものに変換する
ことを特徴とする請求項1記載の画像処理装置。
The second conversion means includes
Converting at least one of the stroke thickness, the stroke density, and the stroke direction of the character into a stroke different from the stroke thickness, the stroke density, and the stroke direction of the non-realistic image, The image processing apparatus according to claim 1.
前記原画像から文字が表現されている文字領域を検出する文字領域検出手段を備え、
前記第2の変換手段は、
前記文字領域検出手段が検出した文字領域に表現されている文字を第2の視覚的効果を与えた効果付き文字に変換し、
前記合成手段は、
前記非写実的画像において前記文字領域検出手段が検出した文字領域に対し前記第2の変換手段により変換された効果付き文字を合成する
ことを特徴とする請求項1又は2記載の画像処理装置。
Character area detection means for detecting a character area in which characters are expressed from the original image,
The second conversion means includes
Converting the character represented in the character region detected by the character region detecting means into a character with an effect having a second visual effect;
The synthesis means includes
3. The image processing apparatus according to claim 1, wherein the character-with-effect converted by the second conversion unit is combined with the character region detected by the character region detection unit in the non-realistic image.
コンピュータを、
原画像を、第1の視覚的効果を与えた非写実的画像に変換する第1の変換手段と、
前記第1の画像変換手段により変換された非写実的画像に合成すべき文字を、前記第1の視覚的効果とは内容の異なる第2の視覚的効果を与えた効果付き文字に変換する第2の変換手段と、
前記第1の画像変換手段により変換された非写実的画像に、前記第2の変換手段により変換された効果付き文字を合成し、文字を含む非写実的画像を生成する合成手段
として機能させることを特徴とするプログラム。
Computer
First conversion means for converting an original image into a non-realistic image having a first visual effect;
A character to be combined with the non-photorealistic image converted by the first image conversion means is converted into a character with an effect having a second visual effect different in content from the first visual effect. Two conversion means;
A non-realistic image converted by the first image converting means is combined with a character with an effect converted by the second converting means to function as a combining means for generating a non-realistic image including the character. A program characterized by
JP2010036788A 2010-02-23 2010-02-23 Image processing apparatus and program Pending JP2011175309A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010036788A JP2011175309A (en) 2010-02-23 2010-02-23 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010036788A JP2011175309A (en) 2010-02-23 2010-02-23 Image processing apparatus and program

Publications (1)

Publication Number Publication Date
JP2011175309A true JP2011175309A (en) 2011-09-08

Family

ID=44688124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010036788A Pending JP2011175309A (en) 2010-02-23 2010-02-23 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP2011175309A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011257971A (en) * 2010-06-09 2011-12-22 Casio Comput Co Ltd Picturesque image display control device, picturesque image display control program and picturesque image display control method
JP2013211052A (en) * 2013-06-14 2013-10-10 Casio Comput Co Ltd Picturesque image display control device, picturesque image display control program, and picturesque image display control method
CN103729829A (en) * 2013-12-13 2014-04-16 深圳市云宙多媒体技术有限公司 Rendering method and device for color image line drawing

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011569A (en) * 1996-06-21 1998-01-16 Saeko Kasao Image processing and composing method and its device
JPH10243211A (en) * 1997-02-28 1998-09-11 Sanyo Electric Co Ltd Image processor, image-processing method and recording medium
JP2001045346A (en) * 1999-07-26 2001-02-16 Fuji Photo Film Co Ltd Composite photographing camera
JP2002245747A (en) * 2001-02-16 2002-08-30 Fuji Photo Film Co Ltd Data recording method and recording medium
JP2004213598A (en) * 2003-01-07 2004-07-29 Hidenori Ito Picturesque image conversion method and computer readable storage medium
JP2004336465A (en) * 2003-05-08 2004-11-25 Canon Inc System for recognizing character in image and device using the same system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011569A (en) * 1996-06-21 1998-01-16 Saeko Kasao Image processing and composing method and its device
JPH10243211A (en) * 1997-02-28 1998-09-11 Sanyo Electric Co Ltd Image processor, image-processing method and recording medium
JP2001045346A (en) * 1999-07-26 2001-02-16 Fuji Photo Film Co Ltd Composite photographing camera
JP2002245747A (en) * 2001-02-16 2002-08-30 Fuji Photo Film Co Ltd Data recording method and recording medium
JP2004213598A (en) * 2003-01-07 2004-07-29 Hidenori Ito Picturesque image conversion method and computer readable storage medium
JP2004336465A (en) * 2003-05-08 2004-11-25 Canon Inc System for recognizing character in image and device using the same system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011257971A (en) * 2010-06-09 2011-12-22 Casio Comput Co Ltd Picturesque image display control device, picturesque image display control program and picturesque image display control method
JP2013211052A (en) * 2013-06-14 2013-10-10 Casio Comput Co Ltd Picturesque image display control device, picturesque image display control program, and picturesque image display control method
CN103729829A (en) * 2013-12-13 2014-04-16 深圳市云宙多媒体技术有限公司 Rendering method and device for color image line drawing

Similar Documents

Publication Publication Date Title
JP4998595B2 (en) Image composition apparatus and program
JP4782105B2 (en) Image processing apparatus and image processing method
JP4295340B2 (en) Enlarge and pinch 2D images
JP4930607B2 (en) Image processing apparatus and image processing program
JP2009237702A (en) Album creating method, program and apparatus
JP2007122533A (en) Comment layout for image
JP2005073015A5 (en)
JP2010072934A (en) Album creation device and album creation method
JP2011164243A (en) Display processing device and program
JP4950316B2 (en) DATA GENERATION DEVICE, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM
JP5229360B2 (en) Image processing apparatus, image data conversion method, print order receiving apparatus, program
JP2010074217A (en) Method and computer program for coloring image generation and recording medium
JP5212352B2 (en) Image processing apparatus and program
JP2011175309A (en) Image processing apparatus and program
JP4926589B2 (en) Image composition apparatus, image composition method, and program
JP2001312721A (en) Image processing method, detecting method for relative density, and image processor
JP5556194B2 (en) Display control apparatus and display control program
JP2009171158A (en) Mosaic image generation apparatus, method, and program
JP2009071634A (en) History image generating device, and program
JP2007201935A (en) Control method of image processing apparatus, and image processing apparatus
WO2019023957A1 (en) Image capturing method and image capturing system of intelligent terminal
JP2011137899A (en) Image processor and program
JP2007200091A (en) Image processor
JP2003348334A (en) Image composing method and program
JP2008160250A (en) Image processing apparatus and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130620

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130910