JP2011175309A - Image processing apparatus and program - Google Patents
Image processing apparatus and program Download PDFInfo
- Publication number
- JP2011175309A JP2011175309A JP2010036788A JP2010036788A JP2011175309A JP 2011175309 A JP2011175309 A JP 2011175309A JP 2010036788 A JP2010036788 A JP 2010036788A JP 2010036788 A JP2010036788 A JP 2010036788A JP 2011175309 A JP2011175309 A JP 2011175309A
- Authority
- JP
- Japan
- Prior art keywords
- image
- character
- conversion
- effect
- converted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
Abstract
Description
本発明は、文字を含む非写実的画像を原画像から生成する画像処理技術に関するものである。 The present invention relates to an image processing technique for generating a non-realistic image including characters from an original image.
従来、例えば下記特許文献1には、デジタルカメラ等により撮影され画像データとして記録された撮影画像を絵画風の画像等に変換する技術が記載されている。一般に、撮影画像(写真)のような写実的な画像は写実的画像と呼ばれ、絵画風の画像や、コンピュータグラフックによる画像等のように写実的ではない画像は非写実的画像と呼ばれている。
Conventionally, for example,
一方、撮影画像を例えば絵画風の画像等の非写実的画像に変換し、新たな作品として鑑賞をする場合には、撮影画像に予めサイン等の文字を付加しておけば、より鑑賞に適した非写実的画像を得ることができる。画像に文字を付加する技術については、下記特許文献2等において公知である。 On the other hand, when a photographed image is converted into a non-realistic image such as a picture-like image and is viewed as a new work, adding characters such as a signature to the photographed image in advance makes it more suitable for viewing. A non-realistic image can be obtained. A technique for adding characters to an image is known in Patent Document 2 below.
しかしながら、サイン等の文字を付加した撮影画像を非写実的画像に変換する場合には、変換後の非写実的画像に与えられる効果の内容によってはサインが判読しづらくなる。つまりサインが背景となる画像部分に埋もれてしまうという問題があった。 However, when a photographed image to which a character such as a signature is added is converted into a non-realistic image, the sign becomes difficult to read depending on the content of the effect given to the converted non-realistic image. That is, there is a problem that the sign is buried in the background image portion.
本発明は、かかる従来の課題に鑑みてなされたものであり、サイン等の文字を含む非写実的画像として、文字が背景部分に埋もれていない非写実的画像を提供することを目的とする。 The present invention has been made in view of such conventional problems, and an object thereof is to provide a non-realistic image in which characters are not buried in a background portion as a non-realistic image including characters such as a signature.
本発明の第1の観点に係る画像処理装置にあっては、原画像を、第1の視覚的効果を与えた非写実的画像に変換する第1の変換手段と、前記第1の画像変換手段により変換された非写実的画像に合成すべき文字を、前記第1の視覚的効果とは内容の異なる第2の視覚的効果を与えた効果付き文字に変換する第2の変換手段と、第1の画像変換手段により変換された非写実的画像に、前記第2の変換手段により変換された効果付き文字を合成し、文字を含む非写実的画像を生成する合成手段とを備えたことを特徴とする。 In the image processing apparatus according to the first aspect of the present invention, a first conversion means for converting an original image into a non-realistic image having a first visual effect, and the first image conversion Second conversion means for converting a character to be combined with the non-realistic image converted by the means into a character with an effect having a second visual effect different in content from the first visual effect; A non-realistic image converted by the first image converting means, and a combining means for synthesizing the character with effect converted by the second converting means and generating a non-realistic image including the character. It is characterized by.
また、本発明の第1の観点に係るプログラムにあっては、コンピュータを、原画像を、第1の視覚的効果を与えた非写実的画像に変換する第1の変換手段と、前記第1の画像変換手段により変換された非写実的画像に合成すべき文字を、前記第1の視覚的効果とは内容の異なる第2の視覚的効果を与えた効果付き文字に変換する第2の変換手段と、前記第1の画像変換手段により変換された非写実的画像に、前記第2の変換手段により変換された効果付き文字を合成し、文字を含む非写実的画像を生成する合成手段として機能させることを特徴とする。 In the program according to the first aspect of the present invention, the computer converts the original image into a non-realistic image having a first visual effect, and the first conversion means. A second conversion for converting a character to be combined with the non-photorealistic image converted by the image conversion means into a character with an effect having a second visual effect different from the first visual effect. And a non-realistic image converted by the first image conversion means, and a non-realistic image converted by the second conversion means, and a non-realistic image including the character is generated as a synthesizing means It is made to function.
本発明によれば、サイン等の文字を含む非写実的画像として、文字が背景部分に埋もれていない非写実的画像を提供することができる。 According to the present invention, a non-realistic image in which characters are not buried in the background portion can be provided as a non-realistic image including characters such as a signature.
以下、本発明の一実施形態について説明する。本実施形態は、主としてデジタルカメラ等により撮影され画像データとして記録された画像、つまり写真を表示する機能を有するデジタルフォトフレーム(以下、DPFという。)に関するものである。 Hereinafter, an embodiment of the present invention will be described. The present embodiment mainly relates to a digital photo frame (hereinafter referred to as DPF) having a function of displaying an image photographed by a digital camera or the like and recorded as image data, that is, a photograph.
図1は、本発明を適用したDPF1のハードウェア構成を示す概略ブロック図である。DPF1は、CPU(Central Processing Unit)101によってシステムの全体を制御される構成である。CPU101には、ROM(Read Only Memory)102、RAM(Random Access memory)103、メディアコントローラ104、操作キー群201、ディスプレイ301が接続されている。
FIG. 1 is a schematic block diagram showing a hardware configuration of a
ROM102は、CPU101にシステム全体を制御させるための複数種のプログラムやデータが記憶されているメモリである。ROM102に記憶されているプログラムには、CPU101を本実施形態での第1の変換手段、第2の変換手段、合成手段、文字領域検出手段として機能させる表示制御プログラム102aが含まれる。
The
また、ROM102に記憶されているデータには、CPU101が、任意の画像データを対象として文字認識処理を行う際に使用される、種々の文字の形状等の特徴を示す文字パターンデータ等が含まれる。文字認識処理は、画像データにより表される画像から文字が存在する文字領域を認識する処理である。
Further, the data stored in the
RAM103は、具体的にはSDRAM(Synchronous dynamic random-access memory)等である。
The
メディアコントローラ104は、DPF1の図示しない本体に設けられているメモリカードスロットに着脱自在に装着された記録メディア40と、CPU101との間におけるデータの入出力を制御する入出力インターフェースである。
The
記録メディア40には、デジタルカメラ等において撮影により取得された画像(写真)を表す画像データが複数記録されている。画像データは、例えばJPEG(Joint Photographic Expert Group)方式により圧縮され、撮影日時等の付加情報と共に静止画ファイルとして記録メディア40に記憶されている。なお、以下の説明では撮影により取得された画像を撮影画像といい、撮影画像を表す画像データを撮影画像データという。
A plurality of image data representing images (photographs) acquired by photographing with a digital camera or the like are recorded on the
操作キー群201は、電源スイッチ及び複数の操作スイッチから構成される。CPU101は、操作キー群201における操作キー等の操作状態を定常的にスキャンすることにより、所定のキー操作によるユーザからの種々の指示を検知する。
The
ディスプレイ301は、バックライト付きのカラー液晶表示パネルと、CPU101から供給される画像データ等の表示データに応じてカラー液晶表示パネルを駆動し、画像データにより表される画像等をカラー液晶表示パネルに表示させる駆動回路とから構成される。
The
図2は、DPF1が有する機能の要部を示す機能ブロック図である。DPF1は、制御部10と、操作部20、表示部30を有している。制御部10は、文字領域検出部11と、第1の変換部12、第2の変換部13、画像合成部14、表示制御部15、記憶部16から構成される。
FIG. 2 is a functional block diagram showing the main part of the functions of the
操作部20は、DPF1に対するユーザからの各種の指示を検知する機能部分であり、図1に示した操作キー群201により実現される。
The
表示部30は、記録メディア40に記録されている撮影画像データにより表される撮影画像や、他の画像データにより表される画像を表示したり、ユーザがDPF1を操作する際に必要とする各種の操作画面を表示したりする。表示部30は、図1に示したディスプレイ301により実現される。
The
文字領域検出部11は、記録メディア40に記録されている任意の撮影画像データに対して文字領域検出処理を行う。文字領域検出処理は、画像データにより表される撮影画像において文字が表現されている文字領域を検出し、検出した文字領域の画像内での位置を示す位置情報を取得する処理である。文字領域検出部11は、図1に示したCPU101により実現される。
The character area detection unit 11 performs a character area detection process on arbitrary captured image data recorded on the
第1の変換部12は、記録メディア40に記録されている任意の撮影画像データに、特定のフィルタ処理を施すことによって、処理対象の撮影画像データにより表される撮影画像(原画像)を、鑑賞を目的とした特定の視覚的効果を与えた非写実的画像に変換する。第1の変換部12が撮影画像に与える鑑賞を目的とした特定の視覚的効果が、本実施形態における第1の視覚的効果である。特定の視覚的効果は、例えば水彩画、油絵画、鉛筆画、パステル画等の特定の絵画の画風等である。
The first conversion unit 12 performs a specific filter process on arbitrary captured image data recorded on the
第1の変換部12が、任意の撮影画像データに施すことができるフィルタ処理の種類は複数であり、第1の変換部12は複数種類の視覚的効果を変換後の非写実的画像に与えることができる。第1の変換部12は、図1に示したCPU101により実現される。
There are a plurality of types of filter processing that the first conversion unit 12 can apply to any photographed image data, and the first conversion unit 12 provides a plurality of types of visual effects to the converted non-realistic image. be able to. The first conversion unit 12 is realized by the
第2の変換部13は、記録メディア40に記録されているサイン画像のデータ、又は文字領域検出部11が任意の画像から検出した文字領域の画像(以下、文字領域画像という。)を表すデータに、特定のフィルタ処理を施すことによって、サイン画像や文字領域画像を、特定の視覚的効果を与えた非写実的画像に変換する。
The second conversion unit 13 is data representing a signature image data recorded on the
但し、第2の変換部13が行うフィルタ処理は、第1の変換部12が行うフィルタ処理とは内容が異なり、第2の変換部13が、サイン画像や文字領域画像に与える特定の視覚的効果は、第1の変換部12が原画像に与える視覚的効果とは異なるものである。第2の変換部12がサイン画像や文字領域画像に与える特定の視覚的効果が、本実施形態における第2の視覚的効果である。 However, the filtering process performed by the second conversion unit 13 is different from the filtering process performed by the first conversion unit 12, and the second conversion unit 13 performs a specific visual process applied to the signature image and the character area image. The effect is different from the visual effect that the first converter 12 gives to the original image. The specific visual effect that the second conversion unit 12 gives to the sign image and the character area image is the second visual effect in the present embodiment.
また、第2の変換部13によるフィルタ処理後のサイン画像や文字領域画像が、本実施形態における効果付き文字である。第2の変換部13は、図1に示したCPU101により実現される。
In addition, the sign image and the character area image after the filter processing by the second conversion unit 13 are characters with effects in the present embodiment. The second conversion unit 13 is realized by the
なお、以下の説明においては、第1の変換部12が行うフィルタ処理を第1のフィルタ処理といい、かつ第2の変換部13が行うフィルタ処理を第2のフィルタ処理という。また、第1の変換部12による原画像の非写実的画像への変換、及び第2の変換部13によるサイン画像や文字領域画像の非写実的画像への変換をアート変換という。 In the following description, the filter process performed by the first converter 12 is referred to as a first filter process, and the filter process performed by the second converter 13 is referred to as a second filter process. The conversion of the original image into the non-real image by the first conversion unit 12 and the conversion of the signature image and the character area image into the non-real image by the second conversion unit 13 are referred to as art conversion.
画像合成部14は、第1の変換部12によるアート変換後の撮影画像を表す画像データに、第2の変換部13によるアート変換後のサイン画像や文字領域画像を表す画像データを合成することにより、文字を含む非写実的画像を表す画像データを生成する。画像合成部14は、図1に示したCPU101により実現される。
The image synthesizing unit 14 synthesizes image data representing a sign image and a character area image after the art conversion by the second conversion unit 13 with the image data representing the photographed image after the art conversion by the first conversion unit 12. Thus, image data representing a non-realistic image including characters is generated. The image composition unit 14 is implemented by the
表示制御部15は、記録メディア40に記録されている任意の画像データにより表される画像や、画像合成部14が生成した画像データにより表される文字を含む非写実的画像を表示部30に表示させる。表示制御部15は、図1に示したCPU101により実現される。
The display control unit 15 displays an image represented by arbitrary image data recorded on the
記憶部16は、文字領域検出部11が任意の画像から検出した文字領域画像を表すデータである文字領域画像データや、表示制御部15が表示部30に表示させる種々の画像のデータを一時的に記憶する。記憶部16は、図1に示したRAM103により実現される。
The storage unit 16 temporarily stores character region image data, which is data representing a character region image detected from an arbitrary image by the character region detection unit 11, and various image data to be displayed on the
次に、以上の構成からなるDPF1の動作について説明する。DPF1には表示モードとして、通常モードとエフェクトモードとが用意されている。表示モードの切替は、ユーザが操作キー群201の所定の操作キーを操作することによって適宜可能となっている。
Next, the operation of the
通常モードは、記録メディア40に記録されている撮影画像データにより表される撮影画像をディスプレイ301にそのまま表示する表示モードである。エフェクトモードは、撮影画像を、文字を含む非写実的画像に変換してディスプレイ301に表示する表示モードである。
The normal mode is a display mode in which a captured image represented by captured image data recorded on the
以下、エフェクトモードにおけるDPF1の具体的な動作について説明する。エフェクトモードにおいてユーザは所定のキー操作によって、表示対象の撮影画像を選択する。
Hereinafter, a specific operation of the
図3は、エフェクトモードにおいて、制御部10(CPU101)がROM102に記憶されている表示制御プログラム102aに従って実行する処理であって、表示対象の撮影画像が選択された後の処理を示したフローチャートである。
FIG. 3 is a flowchart showing processing executed by the control unit 10 (CPU 101) in accordance with the
エフェクトモードにおいて制御部10は、表示対象の撮影画像が選択された後、ユーザにより選択された撮影画像を表す撮影画像データを記録メディア40から読み出し、記憶部16(RAM103)に一時記憶する(ステップS1)。
In the effect mode, after the captured image to be displayed is selected, the
次に、文字領域検出部11(CPU101)が、記憶部16に記憶された撮影画像データを処理対象として文字領域検出処理を行う(ステップS2)。ステップS2の処理において文字領域検出部11は、撮影画像データにより表される撮影画像において文字が表現されている文字領域を検出し、検出した文字領域の撮影画像内での位置を示す位置情報を取得する。 Next, the character area detection unit 11 (CPU 101) performs character area detection processing on the captured image data stored in the storage unit 16 as a processing target (step S2). In the process of step S2, the character area detection unit 11 detects a character area in which a character is expressed in the captured image represented by the captured image data, and obtains positional information indicating the position of the detected character area in the captured image. get.
文字領域検出部11による文字領域の検出方法は、例えば特開2009−259190公報に記載されている、特徴標準辞書の文字カテゴリの構造情報を利用して、文字画像から文字パターンを抽出する公知の技術等を適用した方法である。つまり特徴標準辞書の文字カテゴリと類似する特徴を有する領域を文字領域として検出する方法である。 A method of detecting a character region by the character region detection unit 11 is a known method for extracting a character pattern from a character image by using, for example, structure information of a character category of a feature standard dictionary described in Japanese Patent Application Laid-Open No. 2009-259190. It is a method to which technology is applied. That is, it is a method of detecting an area having a feature similar to the character category of the feature standard dictionary as a character area.
文字領域の検出が成功した場合(ステップS3:YES)、制御部10は、文字領域検出部11が検出した文字領域の画像データを撮影画像から切り出し(ステップS4)、切り出した画像データを、文字領域検出部11が取得した文字領域の位置情報と共に、撮影画像データとは別に記憶部16に一時記憶する(ステップS5)。ステップS4において制御部10が切り出す画像データは、撮影画像において表現されている背景を含まない文字のみを表す画像データである。
When the detection of the character area is successful (step S3: YES), the
一方、ステップS2の処理において文字領域が検出できなかった場合には(ステップS3:NO)、制御部10は、サイン画像の選択画面を表示部30(ディスプレイ301)に表示させる(ステップS6)。ステップS6において制御部10は、記録メディア40から、予め記録されている1又は複数のサイン画像データを読み出し、サイン画像データにより表されるサイン画像を表示部30に表示する。そして、制御部10は、ユーザに所定のキー操作によって所望するサイン画像を選択させる。
On the other hand, when the character area cannot be detected in the process of step S2 (step S3: NO), the
その後、制御部10は、ユーザによりサイン画像が選択されたら(ステップS7:YES)、選択されたサイン画像を表すサイン画像データを記憶部16に一時記憶する(ステップS8)。
Thereafter, when a sign image is selected by the user (step S7: YES), the
つまり、ステップS2〜S8の処理によって、記憶部16には、撮影画像データから切り出された文字領域画像データ、又はサイン画像データのいずれか一方の画像データが一時記憶される。 That is, by the processing in steps S2 to S8, the storage unit 16 temporarily stores either one of the character area image data cut out from the captured image data or the sign image data.
引き続き、制御部10は、アートフィルタの選択画面を表示部30に表示させる(ステップS9)。ステップS6において制御部10は、DPF1に予め用意されている複数種類のフィルタ処理に応じてそれぞれ命名された複数種のアートフィルタの名称(記号でもよい。)を表示した選択画面を表示部30に表示する。そして、制御部10は、ユーザに所定のキー操作によって所望するアートフィルタを選択させる。
Subsequently, the
なお、アートフィルタとは、複数のフィルタ処理の種類をユーザに示すために使用される用語であり、例えば市販のソフトウエアパッケージであるAdobeシステム社によるAdobePhotoshop(商標)において用いられているような「アーティスティックフィルター」の種類を示す用語(「色鉛筆」、「水彩画」等)と同じものである。 The art filter is a term used to indicate a plurality of types of filter processing to the user. For example, as used in Adobe Photoshop (trademark) by Adobe System, which is a commercially available software package, “ It is the same as the term indicating the type of “artistic filter” (“color pencil”, “watercolor”, etc.).
その後、ユーザによりアートフィルタが選択されたら(ステップS10:YES)、第1の変換部12(CPU101)が、選択されたアートフィルタに対応する第1のフィルタ処理を、記憶部16に記憶されている処理対象の撮影画像データに施すアート変換を行う(ステップS11)。ステップS11において第1の変換部12は、アート変換後の撮影画像データ、つまり撮影画像に特定の視覚的効果を与えた非写実的画像を表す画像データを記憶部16に記憶する。 Thereafter, when the art filter is selected by the user (step S10: YES), the first conversion unit 12 (CPU 101) stores the first filter processing corresponding to the selected art filter in the storage unit 16. Art conversion to be performed on the captured image data to be processed is performed (step S11). In step S <b> 11, the first conversion unit 12 stores, in the storage unit 16, captured image data after art conversion, that is, image data representing a non-realistic image that gives a specific visual effect to the captured image.
第1の変換部12が処理対象の撮影画像データに施す第1のフィルタ処理は、例えば本発明の背景技術として説明した特開2006−31688号公報に記載されている下記の技術等の公知の技術を適用した方法によって、撮影画像データにより表される画像に特定の視覚的効果を与える処理である。特開2006−31688号公報に記載されている技術は、画像データに含まれる画素について、色などを判断基準の一つとして各画素をグループ化し、画像データを複数の基本領域に分割し、基本領域を表現の単位領域とする。さらに各々の基本領域の特徴に基づいて統合した複数の基本領域を表現の単位領域とする。そして、各々の単位領域の特徴に基づいて各々の単位領域に含まれる画素の色を決定する技術である。 The first filtering process performed by the first conversion unit 12 on the captured image data to be processed is a known technique such as the following technique described in Japanese Patent Laid-Open No. 2006-31688 described as the background art of the present invention. This is a process of giving a specific visual effect to an image represented by photographed image data by a method to which technology is applied. In the technique described in Japanese Patent Laid-Open No. 2006-31688, with respect to pixels included in image data, each pixel is grouped by using color as one of the determination criteria, and the image data is divided into a plurality of basic regions. Let the region be a unit region of expression. Further, a plurality of basic areas integrated based on the characteristics of each basic area are used as unit areas for expression. This is a technique for determining the color of a pixel included in each unit area based on the characteristics of each unit area.
また、第1のフィルタ処理は、例えばAdobeシステム社によるAdobePhotoshop(商標)において画像の加工に用いられている画像処理技術によっても実現することができる。 The first filter processing can also be realized by an image processing technique used for image processing in Adobe Photoshop (trademark) by Adobe System, for example.
次に、第2の変換部13(CPU101)が、第2のフィルタ処理の内容を設定する(ステップS12)。ステップS12の処理は、第1の変換部12が第1のフィルタ処理に際して使用した設定値を、第2の変換部13が第2のフィルタ処理において使用する設定値に変更する処理である。第2の変換部13が変更する設定値は、第1のフィルタ処理による変換後の非写実的画像に与える視覚的効果を左右する設定値である。 Next, the second conversion unit 13 (CPU 101) sets the content of the second filter process (step S12). The process of step S12 is a process of changing the set value used by the first conversion unit 12 in the first filter process to the set value used by the second conversion unit 13 in the second filter process. The setting value changed by the second conversion unit 13 is a setting value that affects the visual effect given to the non-realistic image after conversion by the first filter processing.
また、第2の変換部13が変更する設定値は、DPF1に予め用意されているフィルタ処理の種類毎に予め決められている規定の設定値であり、第1の変換部12が第1のフィルタ処理として実行したフィルタ処理に対応する規定の設定値である。規定の設定値は、例えばフィルタ処理後の画像内における筆触の太さ、筆触の密度、筆触の向きを左右する設定値である。ここで、筆触とは、絵画などにおける絵筆の効果、すなわち筆さばきによって生じた色調・明暗やリズム感などの表現を形成する絵筆の作用のことであり、筆ざわり、タッチと同義である。設定値が、フィルタ処理後の画像内における筆触の太さ、筆触の密度、筆触の向きを左右する設定値である場合、設定値には以下のような値が設定される。
The setting value changed by the second conversion unit 13 is a predetermined setting value determined in advance for each type of filter processing prepared in advance in the
設定値がフィルタ処理後の画像内における筆触の太さを左右する設定値である場合、変更後の設定値は、筆触の太さを、例えば変更前の設定値で得られる筆触の太さの3倍以上、又は3分の1以下の太さとする値である。つまり変更後における設定値は、筆触の太さを、変更前の設定値で得られる筆触の太さとの違いが見た目で分かる程度の太さとする値である。 When the setting value is a setting value that affects the thickness of the brush stroke in the image after filtering, the changed setting value is, for example, the thickness of the brush stroke obtained by the setting value before the change. The thickness is 3 times or more, or 1/3 or less. That is, the setting value after the change is a value that makes the thickness of the brush stroke thick enough to visually recognize the difference from the thickness of the brush stroke obtained with the setting value before the change.
また、設定値がフィルタ処理後の画像内における筆触の密度を左右する設定値である場合、変更後の設定値は、筆触の密度を、例えば変更前の設定値で得られる筆触の密度の2倍以上、又は2分の1以下の密度とする値である。つまり変更後における設定値は、筆触の密度を、変更前の設定値で得られる筆触の密度との違いが見た目で分かる程度の密度とする値である。ここで、フィルタ処理後の画像内における筆触の密度とは、例えばフィルタ処理後の画像内にハッチングとして認識される平行して点在する同一又は異なる長さの多数の線が表れる場合における線の本数である。 In addition, when the set value is a set value that affects the density of the brush in the image after the filter processing, the set value after the change is the touch density, for example, 2 of the touch density obtained by the set value before the change. It is a value that makes the density more than double or less than half. In other words, the set value after the change is a value at which the brush density is such that the difference from the touch density obtained with the set value before the change can be visually recognized. Here, the density of the brush stroke in the image after filtering is, for example, the line density when multiple lines of the same or different lengths scattered in parallel that are recognized as hatching appear in the image after filtering. It is the number.
また、設定値がフィルタ処理後の画像内における筆触の向きを左右する設定値である場合、変更後の設定値は、筆触の向きを、例えば変更前の設定値で得られる筆触の向きを、筆触の傾き角度が例えば30度〜90度異なる向きとする値である。つまり変更後における設定値は、筆触の向きを、変更前の設定値で得られる筆触の向きとの違いが見た目で分かる程度の向きとする値である。 Further, when the setting value is a setting value that influences the direction of the brush in the image after the filter processing, the setting value after the change indicates the direction of the brush, for example, the direction of the brush obtained by the setting value before the change, It is a value which makes the inclination angle of a brush different from 30 degrees to 90 degrees, for example. That is, the setting value after the change is a value that sets the direction of the brush so that the difference from the direction of the brush obtained by the setting value before the change can be visually recognized.
また、ステップS12の処理において第2の変換部13は、規定の設定値を変更する際、設定値の変更度合をサイン画像や文字領域画像の撮影画像の大きさに対する相対的な大きさに応じて変化させる。例えば第2の変換部13は、サイン画像や文字領域画像の大きさレベルを、予め決められている基準に従い「大」又は「小」のいずれのレベルであるか判断する。そして、第2の変換部13は、大きさレベルが「小」のときには、大きさレベルが「大」のときよりも大きな変更度合で設定値を変更する。 Further, in the process of step S12, the second conversion unit 13 changes the setting value according to the relative size with respect to the size of the photographic image of the sign image or the character area image when changing the specified setting value. Change. For example, the second conversion unit 13 determines whether the size level of the signature image or the character area image is “large” or “small” according to a predetermined standard. Then, when the magnitude level is “small”, the second converter 13 changes the set value with a greater degree of change than when the magnitude level is “large”.
引き続き、第2の変換部13は、第2のフィルタ処理を記憶部16に記憶されている文字領域画像データ、又はサイン画像データに施すアート変換を行う(ステップS13)。第2のフィルタ処理は、第1の変換部12による第1のフィルタ処理と同一のアルゴリズムによるフィルタ処理を、ステップS12の処理で変更した設定値を用いて行うフィルタ処理である。ステップS13において第2の変換部13は、アート変換後の文字領域画像データ、又はサイン画像データ、つまり撮影画像とは異なる特定の視覚的効果を与えた非写実的画像を表す画像データを記憶部16に記憶する。以下の説明では、ステップS13の処理で第2の変換部13が記憶部16に記憶する画像データにより表される非写実的画像を、便宜的に効果付き文字という。 Subsequently, the second conversion unit 13 performs art conversion for applying the second filter processing to the character area image data or the signature image data stored in the storage unit 16 (step S13). The second filter process is a filter process in which the filter process based on the same algorithm as the first filter process by the first converter 12 is performed using the setting value changed in the process of step S12. In step S13, the second conversion unit 13 stores character area image data after art conversion or sign image data, that is, image data representing a non-realistic image having a specific visual effect different from the photographed image. 16 to store. In the following description, the non-realistic image represented by the image data stored in the storage unit 16 by the second conversion unit 13 in the process of step S13 is referred to as a character with effect for convenience.
次に、画像合成部14(CPU101)が、まず、第2の変換部13における第2のフィルタ処理の対象がサイン画像であったか否かを確認する(ステップS14)。そして、画像合成部14は、第2のフィルタ処理の対象がサイン画像であった場合には(ステップS14:YES)、効果付き文字を表す画像データを、アート変換後の撮影画像の予め決められている特定位置に上書き合成する(ステップS15)。画像合成部14は、合成後の画像データを記憶部16に記憶する。 Next, the image composition unit 14 (CPU 101) first confirms whether or not the second filter processing target in the second conversion unit 13 is a sign image (step S14). When the second filter processing target is a sign image (step S14: YES), the image composition unit 14 determines image data representing the effect-added character as a photographed image after the art conversion. Overwriting is performed on the specified position (step S15). The image synthesis unit 14 stores the synthesized image data in the storage unit 16.
また、画像合成部14は、第2のフィルタ処理の対象が文字領域画像であった場合には(ステップS14:NO)、効果付き文字を表す画像データを、アート変換後の撮影画像における元の位置に上書き合成する(ステップS16)。画像合成部14は、合成後の画像データを記憶部16に記憶する。 In addition, when the second filter processing target is a character area image (step S14: NO), the image composition unit 14 converts the image data representing the effect-added character into the original image in the photographed image after the art conversion. The position is overwritten and synthesized (step S16). The image synthesis unit 14 stores the synthesized image data in the storage unit 16.
その後、表示制御部15(CPU101)が、ステップS15、又はステップS16の処理において記憶部16に記憶された合成後の画像データを表示部30(ディスプレイ301)へ送り、表示部30において文字を含む非写実的画像を表示させる(ステップS17)。
Thereafter, the display control unit 15 (CPU 101) sends the combined image data stored in the storage unit 16 in the process of step S15 or step S16 to the display unit 30 (display 301), and the
図4(a)は、ステップS17の処理に伴いディスプレイ301に表示される文字を含む非写実的画像A、つまり背景となるアート変換後の撮影画像Bに効果付き文字Cが合成された画像の一例を示す図である。また、図4(b)は、効果付き文字Cの周辺を示す拡大図である。図4(b)は、第1のフィルタ処理によりアート変換後の撮影画像Bに与えられる視覚的効果と、第2のフィルタ処理によりアート変換後の効果付き文字Cに与えられる視覚的効果との違いが筆触の向きである場合を便宜的に示した図である。
FIG. 4A shows a non-realistic image A including characters displayed on the
また、図5は、アート変換後の撮影画像Bに与えられる視覚的効果と、アート変換後の効果付き文字Cに与えられる視覚的効果との違いが筆触の太さである場合の例を便宜的に示した図4(b)に対応する図である。 FIG. 5 shows an example in which the difference between the visual effect given to the photographed image B after the art conversion and the visual effect given to the character C with the effect after the art conversion is the thickness of the brush stroke. It is a figure corresponding to FIG.4 (b) shown in figure.
ここで、アート変換後の撮影画像Bに合成されるアート変換後の効果付き文字Cは、アート変換前の撮影画像から切り出された文字領域画像、又はサイン画像に、撮影画像とは異なる視覚的効果を与えた非写実的画像である。 Here, the post-art-converted character C combined with the photographed image B after the art conversion is a visual image that is different from the photographed image in the character area image or the sign image cut out from the photographed image before the art conversion. This is a non-realistic image that gives an effect.
そのため、効果付き文字Cには、背景のアート変換後の撮影画像Bとは異なる雰囲気を確保することができ、効果付き文字Cと背景のアート変換後の撮影画像Bとを視覚的に差別化することができる。よって、文字を含む非写実的画像として、文字が背景部分に埋もれていない非写実的画像を提供することができる。 Therefore, the character C with an effect can ensure a different atmosphere from the photographed image B after the background art conversion, and the character C with the effect and the photographed image B after the background art conversion are visually differentiated. can do. Therefore, a non-realistic image in which characters are not buried in the background portion can be provided as a non-realistic image including characters.
また、第2のフィルタ処理を、第1のフィルタ処理と同一のアルゴリズムによるフィルタ処理であるとともに、第1のフィルタ処理で使用した設定値を変更して使用する処理とし、かつ第1のフィルタ処理で使用した設定値の変更を以下のようにした。すなわち、第1のフィルタ処理で使用した設定値を、サイン画像や文字領域画像の大きさレベルが「小」のときには、大きさレベルが「大」のときよりも大きな変更度合で変更するようにした。したがって、効果付き文字が小さい場合には、アート変換後の撮影画像との雰囲気の違いを、効果付き文字が大きい場合に比べて顕著なものとすることにより、より確実に効果付き文字とアート変換後の撮影画像とを視覚的に差別化することができる。 Further, the second filter process is a filter process using the same algorithm as the first filter process, and is a process for changing and using the set value used in the first filter process. The first filter process Changed the setting value used in the following. That is, the setting value used in the first filter processing is changed with a greater degree of change when the size level of the sign image or the character area image is “small” than when the size level is “large”. did. Therefore, when the characters with effects are small, the difference in the atmosphere from the photographed image after the art conversion is more prominent than when the characters with effects are large, so that the characters with the effect and the art conversion are more reliably obtained. It is possible to visually differentiate from the later photographed image.
(変形等)
本実施形態においては、アート変換前の撮影画像のから切り出された文字領域画像、又はサイン画像に施す第2のフィルタ処理が、第1のフィルタ処理と同一のアルゴリズムによるフィルタ処理を、第1のフィルタ処理とは異なる設定値を用いて行う処理である構成について説明した。しかし、DPF1には、第2のフィルタ処理を第1のフィルタ処理とは全く異なるアルゴリズムに基づくフィルタ処理とした構成を採用してもよい。例えば第1のフィルタ処理を、撮影画像を油絵風の画像に変換する処理とするとともに、第2のフィルタ処理を、撮影画像を鉛筆画風の画像に変換する処理としてもよい。
(Deformation etc.)
In the present embodiment, the second filter processing applied to the character region image or the sign image cut out from the photographed image before the art conversion is the same as the first filter processing. The configuration that is processing performed using setting values different from the filter processing has been described. However, the
また、第2のフィルタ処理は、文字領域画像、又はサイン画像の色を、単にアート変換後の撮影画像の合成箇所における背景色に対してネガポジ反転した色に変更する処理としてもよい。 The second filter process may be a process of simply changing the color of the character area image or the sign image to a color obtained by inverting the negative and positive colors with respect to the background color at the synthesized portion of the photographed image after the art conversion.
また、本実施形態においては、サイン画像を効果付き文字にアート変換し、アート変換後の撮影画像に合成するとき、効果付き文字をアート変換後の撮影画像の予め決められている特定位置に合成する場合について説明した。 In this embodiment, when a sign image is art-converted into a character with an effect and combined with a photographed image after the art conversion, the character with an effect is combined at a predetermined specific position of the photographed image after the art conversion. Explained when to do.
しかし、効果付き文字の合成位置を、予め決められた設定規則に従い自動的に設定するようにしてもよい。合成位置の設定規則としては、例えば(a)画像の隅であること、(b)画像の下部であること、(c)注目領域ではないこと、(d)ピントの合っている位置から離れていることの複数の条件をより多く満たすといったものである。なお、(c)の注目領域とは、例えば撮影画像から公知の顔検出技術により検出した人物の顔領域である。 However, the composition position of the character with effect may be automatically set according to a predetermined setting rule. For example, (a) the corner of the image, (b) the lower part of the image, (c) that it is not the attention area, and (d) a position away from the in-focus position. More than one of the multiple conditions of being. Note that the attention area (c) is, for example, a human face area detected from a captured image by a known face detection technique.
また、本実施形態においては、DPF1が非写実的画像に変換して表示する画像が、写真撮影により得られた画像(写真)である場合について説明した。しかし、本発明において非写実的画像への変換対象となる原画像は、写真撮影により得られた画像に限らず、例えば写真をスキャナで読み取り画像データとして記録されたものであっても構わない。
In the present embodiment, the case where the image displayed by the
また、本実施形態においては、本発明をDPFに採用した場合について説明したが、本発明は、所定の画像処理機能を備えたものであれば、DPF以外の他の装置にも適用することができる。他の装置としては、例えばデジタルカメラや、デジタルカメラが内蔵された携帯電話端末等の任意の携帯情報端末、汎用的なパーソナルコンピュータ、プリンタである。 In the present embodiment, the case where the present invention is applied to the DPF has been described. However, the present invention can be applied to apparatuses other than the DPF as long as they have a predetermined image processing function. it can. Other devices include, for example, a digital camera, an arbitrary portable information terminal such as a mobile phone terminal incorporating a digital camera, a general-purpose personal computer, and a printer.
1 DPF
10 制御部
11 文字領域検出部
12 第1の変換部
13 第2の変換部
14 画像合成部
15 表示制御部
16 記憶部
20 操作部
30 表示部
40 記録メディア
101 CPU
102 ROM
102a 表示制御プログラム
103 RAM
104 メディアコントローラ
201 操作キー群
301 ディスプレイ
A 文字を含む非写実的画像
B アート変換後の撮影画像
C 効果付き文字
1 DPF
DESCRIPTION OF
102 ROM
102a
104
Claims (4)
前記第1の画像変換手段により変換された非写実的画像に合成すべき文字を、前記第1の視覚的効果とは内容の異なる第2の視覚的効果を与えた効果付き文字に変換する第2の変換手段と、
第1の画像変換手段により変換された非写実的画像に、前記第2の変換手段により変換された効果付き文字を合成し、文字を含む非写実的画像を生成する合成手段と
を備えたことを特徴とする画像処理装置。 First conversion means for converting an original image into a non-realistic image having a first visual effect;
A character to be combined with the non-photorealistic image converted by the first image conversion means is converted into a character with an effect having a second visual effect different in content from the first visual effect. Two conversion means;
And a non-realistic image converted by the first image converting means, and a synthesizing means for synthesizing the character with effect converted by the second converting means and generating a non-realistic image including the character An image processing apparatus.
前記文字の筆触の太さ、筆触の密度、筆触の向きの少なくとも1つを、前記非写実的画像の筆触の太さ、筆触の密度、筆触の向きとは異なるものに変換する
ことを特徴とする請求項1記載の画像処理装置。 The second conversion means includes
Converting at least one of the stroke thickness, the stroke density, and the stroke direction of the character into a stroke different from the stroke thickness, the stroke density, and the stroke direction of the non-realistic image, The image processing apparatus according to claim 1.
前記第2の変換手段は、
前記文字領域検出手段が検出した文字領域に表現されている文字を第2の視覚的効果を与えた効果付き文字に変換し、
前記合成手段は、
前記非写実的画像において前記文字領域検出手段が検出した文字領域に対し前記第2の変換手段により変換された効果付き文字を合成する
ことを特徴とする請求項1又は2記載の画像処理装置。 Character area detection means for detecting a character area in which characters are expressed from the original image,
The second conversion means includes
Converting the character represented in the character region detected by the character region detecting means into a character with an effect having a second visual effect;
The synthesis means includes
3. The image processing apparatus according to claim 1, wherein the character-with-effect converted by the second conversion unit is combined with the character region detected by the character region detection unit in the non-realistic image.
原画像を、第1の視覚的効果を与えた非写実的画像に変換する第1の変換手段と、
前記第1の画像変換手段により変換された非写実的画像に合成すべき文字を、前記第1の視覚的効果とは内容の異なる第2の視覚的効果を与えた効果付き文字に変換する第2の変換手段と、
前記第1の画像変換手段により変換された非写実的画像に、前記第2の変換手段により変換された効果付き文字を合成し、文字を含む非写実的画像を生成する合成手段
として機能させることを特徴とするプログラム。 Computer
First conversion means for converting an original image into a non-realistic image having a first visual effect;
A character to be combined with the non-photorealistic image converted by the first image conversion means is converted into a character with an effect having a second visual effect different in content from the first visual effect. Two conversion means;
A non-realistic image converted by the first image converting means is combined with a character with an effect converted by the second converting means to function as a combining means for generating a non-realistic image including the character. A program characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010036788A JP2011175309A (en) | 2010-02-23 | 2010-02-23 | Image processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010036788A JP2011175309A (en) | 2010-02-23 | 2010-02-23 | Image processing apparatus and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011175309A true JP2011175309A (en) | 2011-09-08 |
Family
ID=44688124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010036788A Pending JP2011175309A (en) | 2010-02-23 | 2010-02-23 | Image processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011175309A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011257971A (en) * | 2010-06-09 | 2011-12-22 | Casio Comput Co Ltd | Picturesque image display control device, picturesque image display control program and picturesque image display control method |
JP2013211052A (en) * | 2013-06-14 | 2013-10-10 | Casio Comput Co Ltd | Picturesque image display control device, picturesque image display control program, and picturesque image display control method |
CN103729829A (en) * | 2013-12-13 | 2014-04-16 | 深圳市云宙多媒体技术有限公司 | Rendering method and device for color image line drawing |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1011569A (en) * | 1996-06-21 | 1998-01-16 | Saeko Kasao | Image processing and composing method and its device |
JPH10243211A (en) * | 1997-02-28 | 1998-09-11 | Sanyo Electric Co Ltd | Image processor, image-processing method and recording medium |
JP2001045346A (en) * | 1999-07-26 | 2001-02-16 | Fuji Photo Film Co Ltd | Composite photographing camera |
JP2002245747A (en) * | 2001-02-16 | 2002-08-30 | Fuji Photo Film Co Ltd | Data recording method and recording medium |
JP2004213598A (en) * | 2003-01-07 | 2004-07-29 | Hidenori Ito | Picturesque image conversion method and computer readable storage medium |
JP2004336465A (en) * | 2003-05-08 | 2004-11-25 | Canon Inc | System for recognizing character in image and device using the same system |
-
2010
- 2010-02-23 JP JP2010036788A patent/JP2011175309A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1011569A (en) * | 1996-06-21 | 1998-01-16 | Saeko Kasao | Image processing and composing method and its device |
JPH10243211A (en) * | 1997-02-28 | 1998-09-11 | Sanyo Electric Co Ltd | Image processor, image-processing method and recording medium |
JP2001045346A (en) * | 1999-07-26 | 2001-02-16 | Fuji Photo Film Co Ltd | Composite photographing camera |
JP2002245747A (en) * | 2001-02-16 | 2002-08-30 | Fuji Photo Film Co Ltd | Data recording method and recording medium |
JP2004213598A (en) * | 2003-01-07 | 2004-07-29 | Hidenori Ito | Picturesque image conversion method and computer readable storage medium |
JP2004336465A (en) * | 2003-05-08 | 2004-11-25 | Canon Inc | System for recognizing character in image and device using the same system |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011257971A (en) * | 2010-06-09 | 2011-12-22 | Casio Comput Co Ltd | Picturesque image display control device, picturesque image display control program and picturesque image display control method |
JP2013211052A (en) * | 2013-06-14 | 2013-10-10 | Casio Comput Co Ltd | Picturesque image display control device, picturesque image display control program, and picturesque image display control method |
CN103729829A (en) * | 2013-12-13 | 2014-04-16 | 深圳市云宙多媒体技术有限公司 | Rendering method and device for color image line drawing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4998595B2 (en) | Image composition apparatus and program | |
JP4782105B2 (en) | Image processing apparatus and image processing method | |
JP4295340B2 (en) | Enlarge and pinch 2D images | |
JP4930607B2 (en) | Image processing apparatus and image processing program | |
JP2009237702A (en) | Album creating method, program and apparatus | |
JP2007122533A (en) | Comment layout for image | |
JP2005073015A5 (en) | ||
JP2010072934A (en) | Album creation device and album creation method | |
JP2011164243A (en) | Display processing device and program | |
JP4950316B2 (en) | DATA GENERATION DEVICE, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM | |
JP5229360B2 (en) | Image processing apparatus, image data conversion method, print order receiving apparatus, program | |
JP2010074217A (en) | Method and computer program for coloring image generation and recording medium | |
JP5212352B2 (en) | Image processing apparatus and program | |
JP2011175309A (en) | Image processing apparatus and program | |
JP4926589B2 (en) | Image composition apparatus, image composition method, and program | |
JP2001312721A (en) | Image processing method, detecting method for relative density, and image processor | |
JP5556194B2 (en) | Display control apparatus and display control program | |
JP2009171158A (en) | Mosaic image generation apparatus, method, and program | |
JP2009071634A (en) | History image generating device, and program | |
JP2007201935A (en) | Control method of image processing apparatus, and image processing apparatus | |
WO2019023957A1 (en) | Image capturing method and image capturing system of intelligent terminal | |
JP2011137899A (en) | Image processor and program | |
JP2007200091A (en) | Image processor | |
JP2003348334A (en) | Image composing method and program | |
JP2008160250A (en) | Image processing apparatus and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120731 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130604 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130620 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130910 |