JP2014102596A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2014102596A
JP2014102596A JP2012252788A JP2012252788A JP2014102596A JP 2014102596 A JP2014102596 A JP 2014102596A JP 2012252788 A JP2012252788 A JP 2012252788A JP 2012252788 A JP2012252788 A JP 2012252788A JP 2014102596 A JP2014102596 A JP 2014102596A
Authority
JP
Japan
Prior art keywords
image
pixels
mask
subject
cartoon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012252788A
Other languages
Japanese (ja)
Inventor
Shunsuke Funaki
俊介 舩木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SUPERSOFTWARE CO Ltd
Original Assignee
SUPERSOFTWARE CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SUPERSOFTWARE CO Ltd filed Critical SUPERSOFTWARE CO Ltd
Priority to JP2012252788A priority Critical patent/JP2014102596A/en
Publication of JP2014102596A publication Critical patent/JP2014102596A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a suitable cartoon-liked image by performing relatively simple processing of an optional subject image.SOLUTION: A screen tone cut-out image G10 is generated by cutting out a screen tone G0 by a mask G16 obtained by making a gray scale image G15 of a colored subject image G1 a monochrome binary image with a first threshold Th1, a monochrome binary image G11 is generated from the gray scale image with a second threshold Th2 (<Th1), a contour image G12 is generated by detecting and inverting edges of the image G15, and a cartoon-liked image G13 is generated by compositing the images G10, G11, and G12. A main portion of the cartoon-like image is extracted and pasted to a background image, and a partial transparent foreground image is pasted.

Description

本発明は、カメラで撮像された静止画又は動画をオフライン又はオンラインリアルタイムで漫画調画像に変換する画像処理装置に関する。   The present invention relates to an image processing apparatus that converts a still image or a moving image captured by a camera into a cartoon-like image offline or online in real time.

下記特許文献1には、漫画などの画像を出力する装置が開示されている。   Patent Document 1 below discloses an apparatus that outputs an image such as a comic.

特開2001−222713号公報JP 2001-222713 A

しかし、漫画調の紙面画像を電子化するものであり、カメラで撮像された画像を漫画調に変換するものではない。カメラ画像を漫画調に変換しようとすると、様々な条件の任意の被写体画像を処理しなければならないので、適切な漫画調画像に変換するには、被写体の種類に応じた処理を行わなければならず、ソフトウェア構成が複雑になる。   However, it does not convert a cartoon-like paper image into an electronic image, and does not convert an image captured by a camera into a cartoon-like image. When trying to convert a camera image to comics, it is necessary to process any subject image under various conditions, so in order to convert it to an appropriate comic image, processing according to the type of subject must be performed. Therefore, the software configuration becomes complicated.

本発明の目的は、このような問題点に鑑み、任意の被写体画像に対し比較的簡単な処理を行うことにより適切な漫画調画像を生成することが可能な画像処理装置を提供することにある。   In view of such problems, an object of the present invention is to provide an image processing apparatus capable of generating an appropriate comic image by performing a relatively simple process on an arbitrary subject image. .

本発明の第1態様では、プロセッサと、プログラム及びデータが格納された記憶手段と、画像出力手段とを備え、該データは、カメラで撮像された被写体画像と、スクリーントーンとを含み、該プログラムが該プロセッサに対し、該被写体画像を漫画調に変換させる画像処理装置において、該プログラムは該プロセッサに対し、
(a)該被写体画像をグレースケール画像に変換させ、
(b)該グレースケール画像を第1の閾値で2値化させたマスクを生成させ、該スクリーントーンの、該マスクの黒画素の位置に対応した画素からなるスクリーントーン切抜画像を生成させ、
(c)該グレースケール画像を、該第1の閾値より小さい第2の閾値で2値化させて2値画像を生成させ、
(d)該グレースケール画像のエッジ画像を反転させた輪郭線画像を生成させ、
(e)該スクリーントーン切抜画像と該2値画像と該輪郭線画像とを積合成させた第1合成画像を生成させ、
該第1合成画像の一部又は全部を含む画像を漫画調画像として該画像出力手段に供給させる。
According to a first aspect of the present invention, a processor, a storage unit storing a program and data, and an image output unit are provided, and the data includes a subject image captured by a camera and a screen tone, and the program In the image processing apparatus that causes the processor to convert the subject image into a cartoon tone, the program
(A) converting the subject image into a grayscale image;
(B) generating a mask in which the grayscale image is binarized with a first threshold, generating a screen tone cut-out image composed of pixels of the screen tone corresponding to the positions of black pixels of the mask,
(C) binarizing the grayscale image with a second threshold smaller than the first threshold to generate a binary image;
(D) generating a contour image obtained by inverting the edge image of the grayscale image;
(E) generating a first synthesized image obtained by product synthesis of the screen tone cut-out image, the binary image, and the contour line image;
An image including a part or all of the first composite image is supplied to the image output means as a comic image.

本発明による画像処理装置の第2態様では、第1態様において、
該データはさらに背景画像を含み、
該プログラムは該プロセッサに対しさらに、
(f)該輪郭線画像の輪郭線を太らせ、該太らせた輪郭線で分割される第1の画素連結領域のうち、画像枠上の予め定めた1対の辺上の画素を含む画素連結領域を除外した領域を第2の連結領域として求めさせ、該第2の連結領域のうち画素数が閾値以下のものを除外した領域内の各画素を2値の一方の値とし残りの領域を該2値の他方の値とするマスクを生成させ、
(g)該背景画像の、該マスク内の画素のうち該2値の該他方の値の位置に対応する画素と、該第1合成画像の、該マスク内の画素のうち該2値の該他方の値の位置に対応する画素とを合成させた第2合成画像を生成させ、
該漫画調画像は、第2合成画像の一部又は全部を含む。
In the second aspect of the image processing apparatus according to the present invention, in the first aspect,
The data further includes a background image,
The program further provides the processor with
(F) Pixels including pixels on a predetermined pair of sides on the image frame in the first pixel connection region divided by the thickened contour line by thickening the contour line of the contour image The area excluding the connected area is obtained as the second connected area, and each pixel in the area excluding the second connected area from which the number of pixels is less than or equal to the threshold is set as one of the two values, and the remaining area To generate a mask with the other of the two values as
(G) a pixel corresponding to the position of the other value of the binary values among the pixels in the mask of the background image, and the binary value of the pixels in the mask of the first composite image. Generating a second composite image in which the pixel corresponding to the position of the other value is combined;
The cartoon image includes part or all of the second composite image.

本発明による画像処理装置の第3態様では、第2態様において、
該データはさらに、アルファチャンネル付前景画像を含み、
該プログラムは該プロセッサに対しさらに、
(h)該第2合成画像を該アルファチャンネルのマスクでマスクした第3合成画像を生成させ、
該漫画調画像は、第3合成画像の一部又は全部を含む。
In the third aspect of the image processing apparatus according to the present invention, in the second aspect,
The data further includes a foreground image with an alpha channel;
The program further provides the processor with
(H) generating a third composite image obtained by masking the second composite image with the mask of the alpha channel;
The cartoon image includes a part or all of the third composite image.

上記第1態様の構成によれば、任意の被写体画像に対し比較的簡単な処理(a)〜(e)を行うことにより、適切に切り抜いたスクリーントーン切抜画像と被写体画像の2値画像と輪郭線画像とを積合成させた、比較的適切な漫画調画像を、比較的高速に自動生成することができるという効果を奏する。これにより、   According to the configuration of the first aspect, a relatively simple process (a) to (e) is performed on an arbitrary subject image, so that an appropriately cropped screen tone cut-out image, a binary image of the subject image, and an outline are obtained. There is an effect that a relatively appropriate cartoon-like image obtained by product synthesis with a line image can be automatically generated at a relatively high speed. This

上記第2態様の構成によれば、予め記憶している漫画調の背景画像に対し、被写体画像の主要部の比較的面積が広いオブジェクト画像のみ合成することができるとともに、被写体画像の周辺部であっても被写体画像の主要部に連結している輪郭線も合成することができるので、被写体の種類によらず、撮像前に細々とした物を被写体から取り除いたり、撮像した被写体画像から細々とした物の像を手動編集して取り除いたりすることなく、より適切な漫画調画像を生成することができるという効果を奏する。これにより、カメラで撮像された静止画又は動画をオフライン又はオンラインリアルタイムで、適切な漫画調画像に変換することが可能となる。   According to the configuration of the second aspect, only the object image having a relatively large area of the main part of the subject image can be synthesized with the pre-stored cartoon-like background image, and at the periphery of the subject image. Even if there is a contour line that is connected to the main part of the subject image, it is possible to synthesize the outlines from the subject, or remove details from the subject before taking the image, regardless of the type of subject. There is an effect that a more appropriate cartoon-like image can be generated without manually editing and removing the image of the object. As a result, it is possible to convert a still image or a moving image captured by the camera into an appropriate cartoon-like image offline or online in real time.

上記第3態様の構成によれば、予め記憶している漫画調の前景画像をさらに合成することができるので、さらにより適切な漫画調画像を生成することができる。   According to the configuration of the third aspect, it is possible to further synthesize a cartoon-like foreground image stored in advance, so that a more appropriate cartoon-like image can be generated.

本発明の他の目的、特徴的な構成及び効果は、以下の説明を特許請求の範囲及び図面の記載と関係づけて読むことにより明らかになる。   Other objects, characteristic configurations and effects of the present invention will become apparent from the following description read in connection with the appended claims and the drawings.

本発明の実施例1に係る画像処理装置のハードウェア構成を示す概略ブロック図である。It is a schematic block diagram which shows the hardware constitutions of the image processing apparatus which concerns on Example 1 of this invention. カメラで撮像された被写体画像を漫画調画像に変換する処理の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the process which converts the to-be-photographed image imaged with the camera into a comic image. 図13中の主処理部による処理を示す概略フローチャートである。It is a schematic flowchart which shows the process by the main process part in FIG. 図2中の漫画調主画像生成部のより詳細な構成及びその入出力画像の種類を示す図である。It is a figure which shows the more detailed structure of the comic tone main image generation part in FIG. 2, and the kind of the input-output image. 図2中のマスク生成部42のより詳細な構成及びその入出力画像の種類を示す概略機能ブロック図である。FIG. 3 is a schematic functional block diagram showing a more detailed configuration of a mask generation unit 42 in FIG. 2 and types of input / output images thereof. (A)〜(D)はそれぞれ、スクリーントーン、被写体画像、背景画像及び前景画像の具体例を示す図である。(A)-(D) is a figure which shows the specific example of a screen tone, a to-be-photographed image, a background image, and a foreground image, respectively. (A)〜(D)は図4の処理説明用画像を示す図である。(A)-(D) are figures which show the image for process description of FIG. (A)〜(D)は図4の処理説明用画像を示す図である。(A)-(D) are figures which show the image for process description of FIG. (A)〜(D)は図5の処理説明用画像を示す図である。(A)-(D) are figures which show the image for process description of FIG. (A)及び(B)は図5の処理説明用画像を示す図、(C)は図2中の背景・主画像合成画像の具体例を示す図である。(A) And (B) is a figure which shows the image for process description of FIG. 5, (C) is a figure which shows the specific example of the background and main image synthesized image in FIG. 本実施例1の画像処理で生成される最終的な漫画調画像の具体例を示す図である。It is a figure which shows the specific example of the final comic style image produced | generated by the image processing of the present Example 1. FIG. 本実施例1の画像処理で生成される他の最終的な漫画調画像の具体例を示す図である。It is a figure which shows the specific example of the other final comic style image produced | generated by the image processing of the present Example 1. FIG. 図2に対応した動画の場合の処理の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the process in the case of the moving image corresponding to FIG.

図1は、本発明の実施例に係る画像処理装置10のハードウェア構成を示す概略ブロック図であって、この実施例で必要な構成要素のみを示す。画像処理装置10は例えば、スマートフォンやPDA等の携帯端末装置、デジタルカメラ、ノートパソコン又はデスクトップパソコンである。   FIG. 1 is a schematic block diagram showing a hardware configuration of an image processing apparatus 10 according to an embodiment of the present invention, and shows only components necessary for this embodiment. The image processing apparatus 10 is, for example, a mobile terminal device such as a smartphone or a PDA, a digital camera, a notebook computer, or a desktop personal computer.

画像処理装置10は、その本体部20において、プロセッサ21がバス22を介して記憶装置23、入力インターフェイス24、カメラインターフェイス25及びディスプレインターフェイス26に結合されている。入力インターフェイス24には入力装置30が結合され、カメラインターフェイス25にはカメラ31が結合され、ディスプレインターフェイス26には表示装置32が結合され、通信部27にはアンテナ33が結合されている。   In the main body 20 of the image processing apparatus 10, a processor 21 is coupled to a storage device 23, an input interface 24, a camera interface 25, and a display interface 26 via a bus 22. An input device 30 is coupled to the input interface 24, a camera 31 is coupled to the camera interface 25, a display device 32 is coupled to the display interface 26, and an antenna 33 is coupled to the communication unit 27.

入力装置30は、対話型入力装置であって、タッチパネル、ポインティングデバイス若しくはキーボード又はこれらの組み合わせで構成されている。通信部27は、電波を介してインターネットと結合するためのネットワークインターフェイスを備えている。   The input device 30 is an interactive input device and includes a touch panel, a pointing device, a keyboard, or a combination thereof. The communication unit 27 includes a network interface for coupling with the Internet via radio waves.

記憶装置23にはプログラム及びデータが格納され、このプログラムは、プロセッサ21に対し、入力装置30から入力インターフェイス24を介したユーザの選択、設定値入力又は指示を受け付け、この入力に応じてカメラ31の絞り値やシャッター速度又は本体部20内の入力ゲイン等を調節して入力画像の明るさ等を調整し、カメラ31で被写体を撮像させてその静止画又は動画の画像データを記憶装置23内に格納させ、この画像データを処理させ、その結果をディスプレインターフェイス26に供給することにより表示装置32に表示させ、又は、該結果をMPEG圧縮し、ブラウザ等のネットワークソフトを介し通信部27に供給することにより、アンテナ33及び不図示のサーバを介して通信相手に画像データを送信する。   A program and data are stored in the storage device 23, and this program accepts a user's selection, setting value input, or instruction from the input device 30 via the input interface 24 to the processor 21, and the camera 31 according to this input. The brightness of the input image is adjusted by adjusting the aperture value, the shutter speed, the input gain in the main body 20, etc., the subject is imaged by the camera 31, and the image data of the still image or moving image is stored in the storage device 23. The image data is processed and processed, and the result is supplied to the display interface 26 to be displayed on the display device 32, or the result is MPEG-compressed and supplied to the communication unit 27 via network software such as a browser. As a result, the image data is transmitted to the communication partner via the antenna 33 and a server (not shown).

図2は主に、上記画像データの処理として、カメラ31で撮像された被写体画像G1を漫画調画像G40に変換する処理を示す機能ブロック図である。   FIG. 2 is a functional block diagram mainly showing processing for converting the subject image G1 captured by the camera 31 into a cartoon-like image G40 as processing of the image data.

データ記憶領域230は、図1の記憶装置23のデータ領域の一部であり、これには、スクリーントーンG0、複数枚の背景画像G2及び複数枚の前景画像G3が予め格納されている。ユーザは、入力装置30を操作して、複数枚の背景画像G2の中から背景画像G2sを選択し、複数枚の前景画像G3の中から前景画像G3sを選択する。   The data storage area 230 is a part of the data area of the storage device 23 of FIG. 1, and stores a screen tone G0, a plurality of background images G2, and a plurality of foreground images G3 in advance. The user operates the input device 30 to select the background image G2s from the plurality of background images G2, and selects the foreground image G3s from the plurality of foreground images G3.

主処理部40は、カメラ31で撮像された被写体画像G1を漫画調画像に変換するメインルーチンである。図3は、この主処理部40による処理を示す概略フローチャートであり、ステップS1〜S4の順に処理される。ステップS1〜S4のそれぞれで呼び出されるサブルーチンは、図1中の漫画調主画像生成部41、マスク生成部42、背景・主画像合成部43及び前景合成部44に対応している。   The main processing unit 40 is a main routine for converting the subject image G1 captured by the camera 31 into a comic image. FIG. 3 is a schematic flowchart showing processing by the main processing unit 40, which is processed in the order of steps S1 to S4. The subroutine called in each of steps S1 to S4 corresponds to the comic-like main image generation unit 41, the mask generation unit 42, the background / main image synthesis unit 43, and the foreground synthesis unit 44 in FIG.

図6(A)〜(D)はそれぞれ、スクリーントーンG0、被写体画像G1、背景画像G2s及び前景画像G3sの具体例を示す。   6A to 6D show specific examples of the screen tone G0, the subject image G1, the background image G2s, and the foreground image G3s, respectively.

スクリーントーンG0は、斜め45度の白線と黒線(線幅は白線の方が太い。)とを交互に描画した2値画像であり、これを切り抜いて被写体画像の中間輝度面(中間濃度面)に貼り付けるために用いられる。   The screen tone G0 is a binary image in which a white line and a black line (line width is thicker in the white line) with an inclination of 45 degrees are alternately drawn and cut out to obtain an intermediate luminance surface (intermediate density surface) of the subject image. ).

被写体画像G1には、その中央部に主要部である優勝カップ、右下に画像処理装置10円硬貨及び左上隅に物体の一部のイメージが含まれている。   The subject image G1 includes a winning cup as a main part in the center, an image processing apparatus 10-yen coin in the lower right, and an image of a part of the object in the upper left corner.

漫画は一般に画像が単純化されているので、面積の比較的小さい物体や縁部に写っているものを削除した方が好ましい。また、背景や前景を漫画的にした方が好ましい。   Since the image of a comic is generally simplified, it is preferable to delete an object having a relatively small area or an image of an edge. It is also preferable to make the background and foreground cartoon.

そこで、被写体画像G1をモノクロ2値画像にし、被写体画像G1を切り抜いて中間輝度領域に貼り付け、画面内主要部を抽出し、背景を背景画像G2sで置き換え、さらに前景画像G3を合成することにより、被写体画像G1を漫画調画像G40に変換する。   Therefore, the subject image G1 is converted into a monochrome binary image, the subject image G1 is cut out and pasted into the intermediate luminance area, the main part in the screen is extracted, the background is replaced with the background image G2s, and the foreground image G3 is further synthesized. The subject image G1 is converted into a cartoon-like image G40.

図2に戻って、漫画調主画像生成部41は、被写体画像G1に応じてスクリーントーンG0を切り取ったスクリーントーン切抜画像G10を生成し、被写体画像G1をニ値化した二値画像G11を生成し、被写体画像G1のエッジを検出して輪郭線画像G12を生成し、これらスクリーントーン切抜画像G10、二値画像G11及び輪郭線画像G12を合成して、漫画調主画像G13を生成する。これらスクリーントーン切抜画像G10、二値画像G11、輪郭線画像G12及び漫画調主画像G13の具体例をそれぞれ、図7(D)、図8(A)、図8(C)及び図8(D)に示す。   Returning to FIG. 2, the cartoon-tone main image generation unit 41 generates a screen tone cut-out image G10 obtained by cutting the screen tone G0 according to the subject image G1, and generates a binary image G11 obtained by binarizing the subject image G1. Then, an edge of the subject image G1 is detected to generate a contour image G12, and the screen tone cutout image G10, the binary image G11, and the contour image G12 are combined to generate a cartoon-tone main image G13. Specific examples of the screen tone cutout image G10, the binary image G11, the contour line image G12, and the cartoon-tone main image G13 are shown in FIGS. 7D, 8A, 8C, and 8D, respectively. ).

図4は、漫画調主画像生成部41のより詳細な構成及びその入出力画像の種類を示す。   FIG. 4 shows a more detailed configuration of the cartoon-tone main image generation unit 41 and the types of input / output images thereof.

リサイズ部410は、前処理として、処理対象のスクリーントーンG0、被写体画像G1、背景画像G2s及び前景画像G3sを拡大又は縮小処理することにより、これらのそれぞれのサイズ(幅と高さの画素数)を、結果として出力する漫画調画像G40のサイズに一致させる。このアプリケーションで被写体画像G1のサイズを固定しておき、スクリーントーンG0、背景画像G2及び前景画像G3をこのサイズに合わせて備えている場合には、リサイズ部410の処理を省略することができる。以下、スクリーントーンG0、被写体画像G1、背景画像G2s及び前景画像G3sはサイズが互いに一致しているとする。   The resizing unit 410 enlarges or reduces the screen tone G0, the subject image G1, the background image G2s, and the foreground image G3s to be processed as preprocessing, thereby obtaining the respective sizes (number of pixels of width and height). Is matched with the size of the comic-like image G40 to be output as a result. If the size of the subject image G1 is fixed in this application and the screen tone G0, the background image G2, and the foreground image G3 are provided in accordance with these sizes, the processing of the resizing unit 410 can be omitted. Hereinafter, it is assumed that the screen tone G0, the subject image G1, the background image G2s, and the foreground image G3s have the same size.

グレースケール化部411は、カラーの被写体画像G1をグレースケール化して、図7(A)に示すようなグレースケール画像G15を生成する。これは例えば被写体画像G1の各画素のR(赤)、G(緑)及びB(青)の成分値の平均値をモノクロ画像の画素値とすることにより得られる。グレースケール画像G15の画素は例えば、シングルチャンネルの8ビットで表される。   The gray scale conversion unit 411 converts the color subject image G1 to gray scale, and generates a gray scale image G15 as shown in FIG. This is obtained, for example, by setting the average value of the component values of R (red), G (green), and B (blue) of each pixel of the subject image G1 as the pixel value of the monochrome image. A pixel of the grayscale image G15 is represented by, for example, 8 bits of a single channel.

二値化部412は、グレースケール画像G15を第1の閾値Th1でニ値化し反転することにより、スクリーントーン切り抜き用マスクG16を生成する。図7(B)は、グレースケール画像G15をニ値化した画像であり、図7(C)はその白黒を反転したマスクG16を示す。二値は最小値(黒)又は最大値(白)であって、例えば8ビットの場合、0(黒)又は255(白)であり、1ビットの場合、0又は1である。   The binarization unit 412 generates a screen tone clipping mask G16 by binarizing and inverting the grayscale image G15 with the first threshold Th1. FIG. 7B is an image obtained by binarizing the grayscale image G15, and FIG. 7C shows a mask G16 obtained by inverting the black and white. The binary value is the minimum value (black) or the maximum value (white). For example, in the case of 8 bits, it is 0 (black) or 255 (white), and in the case of 1 bit, it is 0 or 1.

上記第1の閾値Th1は、スクリーントーンG0を切り抜くマスクを生成するためのものであって、可変閾値、例えば注目画素を含むローカルな3×3画素の平均値に正の設定値を加えた値(適応的二値化の閾値)、又は、全画素の平均値に、1より大きい定数を乗じた値若しくは予め定めた経験値などである。   The first threshold value Th1 is for generating a mask for cutting out the screen tone G0, and is a variable threshold value, for example, a value obtained by adding a positive set value to an average value of local 3 × 3 pixels including the target pixel. (A threshold value for adaptive binarization), or a value obtained by multiplying the average value of all pixels by a constant larger than 1 or a predetermined experience value.

切り抜き部413は、スクリーントーンG0をマスクG16で切り抜いて、図7(D)に示すようなスクリーントーン切抜画像G10を生成する。なお、図7(B)の黒画素を透過画素と見なしてスクリーントーンG0を切り抜くことにより、上記反転処理を省略してもよい。また、ニ値化の際に反転させることにより、図7(B)の生成を省略してもよい。   The cutout unit 413 cuts out the screen tone G0 with the mask G16 and generates a screen tone cutout image G10 as shown in FIG. Note that the inversion process may be omitted by cutting out the screen tone G0 by regarding the black pixels in FIG. 7B as transmissive pixels. Further, the generation of FIG. 7B may be omitted by inversion at the time of binarization.

二値化部414は、グレースケール画像G15を、第1の閾値Th1よりも小さい第2の閾値Th2、例えば適応的二値化における上記平均値でニ値化して、図8(A)に示すような二値画像G11を生成する。この第2の閾値Th2は、ユーザにより入力装置30の操作に応じて変更するようにしてもよい。例えば「明るい」、「普通」、「暗い」の3段階のいずれかをユーザに選択させ、その結果に応じて、該平均値に、予め定めた定数を乗じた値を、第2の閾値Th2とする。   The binarization unit 414 binarizes the grayscale image G15 with a second threshold Th2 smaller than the first threshold Th1, for example, the average value in adaptive binarization, and is shown in FIG. Such a binary image G11 is generated. The second threshold Th2 may be changed according to the operation of the input device 30 by the user. For example, the user selects one of three levels “bright”, “normal”, and “dark”, and in accordance with the result, a value obtained by multiplying the average value by a predetermined constant is set as the second threshold Th2. And

エッジ検出反転部415は、グレースケール画像G15に対し、例えばエッジ検出オペレーターをラスター走査させながらフィルタリング処理し、その結果を2値化することにより、図8(B)に示すような2値のエッジ画像を生成し、その白黒を反転させることにより図8(C)に示すような輪郭線画像G12を生成する。なお、エッジ検出反転部415は、エッジを検出しながら反転2値化することにより、輪郭線画像G12を直接生成してもよい。   The edge detection reversing unit 415 performs a filtering process on the grayscale image G15 while raster scanning the edge detection operator, for example, and binarizes the result, whereby a binary edge as shown in FIG. 8B is obtained. An outline image G12 as shown in FIG. 8C is generated by generating an image and inverting the black and white. Note that the edge detection inversion unit 415 may directly generate the contour image G12 by performing inversion binarization while detecting the edge.

積合成部416は、スクリーントーン切抜画像G10、二値画像G11及び輪郭線画像G12の互いに対応する位置の画素の全てが白画素であれば白画素とし、そうでなければ黒画素とすることにより、換言すれば対応する3画素値の積を画素とする、図8(D)に示すような漫画調主画像G13を生成する。   The product synthesizing unit 416 sets a white pixel if all of the pixels corresponding to each other in the screen tone cutout image G10, the binary image G11, and the contour image G12 are white pixels, and otherwise sets the pixels as black pixels. In other words, a cartoon-like main image G13 as shown in FIG. 8D is generated with the product of the corresponding three pixel values as the pixel.

このような処理により、被写体画像を単純化した漫画調のモノクロ画像を生成することができる。   By such processing, it is possible to generate a cartoon-like monochrome image obtained by simplifying the subject image.

また、高画質の漫画調主画像G13が得られるにも拘わらず処理が比較的簡単であり、これにより高速処理が可能であるので、画像処理装置10がスマートフォンであっても、その処理性能に応じ動画のフレーム毎又は数フレーム毎にリアルタイムで、漫画調画像に変換することが可能となる。   Further, although the high-quality cartoon-like main image G13 is obtained, the processing is relatively simple, and thus high-speed processing is possible. Therefore, even if the image processing apparatus 10 is a smartphone, the processing performance is improved. Accordingly, it is possible to convert to a cartoon-like image in real time every frame or every few frames of the moving image.

図2に戻って、マスク生成部42は、輪郭線画像G12に基づいて図10(B)に示すような、主画像から主要部を切り抜いて背景画像に貼り付けるための背景・主画像合成マスクG20を生成する。   Returning to FIG. 2, the mask generation unit 42, as shown in FIG. 10B, based on the contour image G <b> 12, a background / main image composition mask for cutting out the main part from the main image and pasting it on the background image G20 is generated.

図5は、マスク生成部42のより詳細な構成及びその入出力画像の種類を示す概略機能ブロック図である。マスク生成部42は、ブロック420〜425の順に処理を行う。   FIG. 5 is a schematic functional block diagram showing a more detailed configuration of the mask generation unit 42 and types of input / output images thereof. The mask generation unit 42 performs processing in the order of blocks 420 to 425.

線膨張部420は、輪郭線画像G12の輪郭線を膨張させて、図9(A)に示すような8ビットの2値画像を生成する。反転部421は、この画像を白黒反転させて図9(B)に示すような画像を生成する。   The linear expansion unit 420 expands the contour line of the contour image G12 and generates an 8-bit binary image as shown in FIG. The inversion unit 421 inverts this image in black and white to generate an image as shown in FIG. 9B.

ラベリング部422は、この画像に対し、ラベリングを行う。すなわち、白画素(画素値が最大値)で互いに4方向又は8方向に隣接している画素を連結した画素連結領域毎に、互いに異なる番号を、領域内画素に付与した画素連結領域画像G21を生成する。ラベリング対象外の黒画素(輪郭線上の画素)の値は0であるので、ラベリングは1以上の整数を用いる。図9(C)は、画素連結領域画像G21の説明図であり、互いに異なる画素連結領域を、互いに異なる濃淡値で表している。   The labeling unit 422 performs labeling on this image. That is, for each pixel connection region in which pixels adjacent to each other in four directions or eight directions with white pixels (the pixel value is the maximum value), a pixel connection region image G21 in which different numbers are assigned to the pixels in the region is displayed. Generate. Since the value of black pixels that are not subject to labeling (pixels on the contour line) is 0, integers of 1 or more are used for labeling. FIG. 9C is an explanatory diagram of the pixel connection region image G21, and different pixel connection regions are represented by different gray values.

粗マスク生成部423は、画素連結領域画像G21上の予め定めた対向する辺上(縁部)の画素を含む画素連結領域を、黒画素の領域(不透過領域)に変更し、残りの領域を白画素の領域(透過領域)に変更したマスクを生成する。例えば、画素連結領域画像G21の各行の始点と終点の画素のラベルと同一のラベルを持つ画素連結領域内の画素を黒画素に変換し、その他の領域を全て白画素の領域に変換する。但し、ラベリング部422でラベリング対象外にした輪郭線上の画素は、白画素にする。これは、輪郭線が画像内主要部につながっている場合に、それを残すためである(後述の図12を参照)。このような処理により、図9(D)に示すような二値画像が得られる。   The coarse mask generation unit 423 changes a pixel connection area including pixels on a predetermined opposite side (edge) on the pixel connection area image G21 to a black pixel area (non-transmission area), and the remaining area. A mask in which is changed to a white pixel region (transmission region) is generated. For example, the pixels in the pixel connection region having the same label as the start and end pixel labels of each row of the pixel connection region image G21 are converted into black pixels, and all other regions are converted into white pixel regions. However, the pixels on the contour line excluded from the labeling by the labeling unit 422 are white pixels. This is to leave the outline when it is connected to the main part in the image (see FIG. 12 described later). By such processing, a binary image as shown in FIG. 9D is obtained.

ラベリング部424は、図9(D)の画像に対し、上記同様に再度ラベリングを行う。図10(A)は、ラベリングされた画像の説明図であり、異なる画素連結領域を異なる濃淡値の領域で示している。このラベリングを行う際、各画素連結領域の画素数をその領域の面積として求めておく。   The labeling unit 424 performs the labeling again on the image of FIG. FIG. 10A is an explanatory diagram of a labeled image, in which different pixel connection areas are indicated by areas having different gray values. When this labeling is performed, the number of pixels in each pixel connection region is obtained as the area of the region.

小面積白領域黒化部425は、このラベリングされた画像内の画素連結領域の面積が閾値以下、例えば全画素数の10%以下である領域内の画素を、黒画素に変換し、黒画素以外のラベリングされた領域を白画素に変換して、図10(B)に示すような二値の背景・主画像合成マスクG20を生成する。これにより、画面上主要部の比較的大きな物体の領域のみを白画素(透過領域)とするマスクが得られる。   The small area white region blackening unit 425 converts pixels in a region where the area of the pixel connection region in the labeled image is equal to or less than a threshold value, for example, 10% or less of the total number of pixels, to black pixels, A labeled region other than is converted into a white pixel, and a binary background / main image synthesis mask G20 as shown in FIG. 10B is generated. As a result, a mask can be obtained in which only a relatively large object area in the main part of the screen is a white pixel (transmission area).

この小面積白領域黒化部425での処理があるので、粗マスク生成部423では、画素連結領域画像G21上の縁部の一部、例えば10行毎の1行の始点と終点の画素のラベルと同一のラベルを持つ画素連結領域内の画素を黒画素に変換し、その他の領域を全て白画素の領域に変換する構成であってもよい。   Since there is processing in the small area white region blackening unit 425, the coarse mask generation unit 423 performs a part of the edge on the pixel connection region image G21, for example, the start point and end point pixels of one row every 10 rows. A configuration in which pixels in a pixel connection area having the same label as the label are converted into black pixels and all other areas are converted into white pixel areas may be adopted.

図2に戻って、背景・主画像合成部43は、背景・主画像合成マスクG20の白画素の位置に対応する漫画調主画像G13上の画素のみを取り出し、背景・主画像合成マスクG20の黒画素の位置に対応する背景画像G2s上の画素のみを取り出すことにより、両画像を合成した図10(C)に示すような背景・主画像合成画像G30を生成する。或いは、背景画像G2s上に、背景・主画像合成マスクG20の白画素の位置に対応する漫画調主画像G13上の画素を上書きすることにより、図10(C)に示すような背景・主画像合成画像G30を生成する。   Returning to FIG. 2, the background / main image composition unit 43 extracts only the pixels on the cartoon-tone main image G13 corresponding to the position of the white pixel of the background / main image composition mask G20 and extracts the background / main image composition mask G20. By extracting only the pixels on the background image G2s corresponding to the position of the black pixel, a background / main image composite image G30 as shown in FIG. Alternatively, the background / main image as shown in FIG. 10 (C) is overwritten on the background image G2s by overwriting the pixel on the cartoon-tone main image G13 corresponding to the position of the white pixel of the background / main image composition mask G20. A composite image G30 is generated.

ここで、複数の前景画像G3のそれぞれは、アルファチャンネル付画像であり、アルファマスクを含んでいる。例えば図6(D)の前景画像G3sにおいて、漫画調白抜き文字列「ズキュー」の文字領域の各画素のアルファ値が0(最小値で完全不透明)で、その他の領域の画素のアルファ値が255(最大値で完全透明)となっている。前景画像G3sは実質的にアルファチャンネル付であればよく、別々の前景画像とマスクの組であってもよい。   Here, each of the foreground images G3 is an image with an alpha channel and includes an alpha mask. For example, in the foreground image G3s of FIG. 6D, the alpha value of each pixel in the character region of the cartoon-like white character string “Zuqu” is 0 (the minimum value is completely opaque), and the alpha value of the pixels in the other regions is 255 (maximum value is completely transparent). The foreground image G3s may be substantially provided with an alpha channel, and may be a set of separate foreground images and masks.

前景合成部44は、背景・主画像合成画像G30の各画素に対し、前景画像G3sの対応する位置の画素のアルファ値が0であればそのままとし、アルファ値が255であれば前景画像G3sの該画素の輝度値を背景・主画像合成画像G30に対し上書きすることにより、漫画調画像G40を生成する。これにより、図11に示すような最終的な漫画調画像G40が生成される。   The foreground composition unit 44 keeps the pixel of the corresponding position in the foreground image G3s if the alpha value is 0 for each pixel of the background / main image composition image G30, and keeps the foreground image G3s if the alpha value is 255. A comic image G40 is generated by overwriting the luminance value of the pixel on the background / main image composite image G30. As a result, a final comic image G40 as shown in FIG. 11 is generated.

図3のステップS5において、図2の漫画調画像G40をディスプレインターフェイス26に供給することにより、漫画調画像G40を表示装置32に表示させる。この際、ソフトウェア又はディスプレインターフェイス26により、シングルチャンネルのモノクロ2値画像がRGBチャンネルのモノクロ2値画像に変換される。   In step S5 of FIG. 3, the cartoon-like image G40 of FIG. 2 is supplied to the display interface 26 so that the cartoon-like image G40 is displayed on the display device 32. At this time, the single channel monochrome binary image is converted into the RGB channel monochrome binary image by the software or the display interface 26.

図12は、スクリーントーンG0、背景画像G2s及び前景画像G3sを上記と同一にし、被写体画像を変え、上記と同一の処理により生成された漫画調画像G40Aを示す。   FIG. 12 shows a cartoon tone image G40A generated by the same processing as described above with the screen tone G0, the background image G2s and the foreground image G3s being the same as those described above, the subject image being changed.

図2では本発明を静止画に適用した場合を説明したが、本発明は上述の説明から明らかなように、動画にも適用することができ、これを実施例2として以下に説明する。   Although the case where the present invention is applied to a still image has been described with reference to FIG. 2, the present invention can be applied to a moving image as will be apparent from the above description, and this will be described below as a second embodiment.

図13は、図2に対応した動画(テレビ電話又はチャット等で用いられる動画)の場合の概略機能ブロック図である。   FIG. 13 is a schematic functional block diagram in the case of a moving image (moving image used in a videophone or chat) corresponding to FIG.

この構成では、図2の背景画像G2、前景画像G3及びこれらに関係した構成を省略し、カメラ31から順次供給されるフィールド画像をデータ記憶領域230に格納しながらリアルタイムで順次被写体画像G1として取り出し、上記同様に処理を行って、漫画調主画像G13を漫画調画像として生成する。フィールド画像のバッファ領域としては、最低、2フィールド画像分確保すればよい。3人以上参加のテレビ電話又はチャットの場合には、サーバを介し参加者全員の画像を各参加者にリアルタイムで配信するため、リサイズ部410でスクリーントーンG0を予め縮小しておき、一方、被写体画像G1は、カメラ31からの画像を間引いてサンプリングすることにより、リサイズされた被写体画像G1を取得する。   In this configuration, the background image G2 and the foreground image G3 in FIG. 2 and the configuration related thereto are omitted, and the field images sequentially supplied from the camera 31 are sequentially extracted as the subject image G1 in real time while being stored in the data storage area 230. The process is performed in the same manner as described above to generate the cartoon tone main image G13 as a comic tone image. As a field image buffer area, it is sufficient to secure at least two field images. In the case of a videophone or chat with three or more participants, the resize unit 410 reduces the screen tone G0 in advance in order to deliver the images of all participants to each participant in real time via the server. The image G1 is obtained by thinning and sampling the image from the camera 31 to obtain the resized subject image G1.

ユーザによる入力装置30からの指示に応じて、この漫画調画像G13を、図1のディスプレインターフェイス26に供給することにより、表示装置32にモニタ画像を表示させ、又は、漫画調画像G13をMPEG圧縮・伸長部50に供給してMPEG圧縮し、Webクライアント51(汎用又は専用のWebブラウザ)を介し通信部27に供給する。   In response to an instruction from the input device 30 by the user, this comic-like image G13 is supplied to the display interface 26 of FIG. 1 to display a monitor image on the display device 32, or the comic-like image G13 is MPEG-compressed. Supply to the decompression unit 50, MPEG compression, and supply to the communication unit 27 via the Web client 51 (general-purpose or dedicated Web browser).

これにより、ユーザは素顔を見せることなく、サーバを介し特定又は複数の通信相手に自己の漫画調画像を送信して表示させることができる。   Accordingly, the user can transmit and display his / her comic-like image to a specific or a plurality of communication partners via the server without showing a real face.

同様に、該サーバ、通信部27及びWebクライアント51を介し、特定又はサーバで合成された複数の通信相手を含む漫画調画像をMPEG圧縮したものを受信し、これをMPEG圧縮・伸長部50で伸長して漫画調画像を再生し、図1のディスプレインターフェイス26に供給することにより、表示装置32に受信画像を表示させる。   Similarly, through the server, the communication unit 27, and the Web client 51, an MPEG-compressed comic-like image including a plurality of communication partners specified or synthesized by the server is received, and this is compressed by the MPEG compression / decompression unit 50. The comic image is decompressed and reproduced to be supplied to the display interface 26 in FIG. 1, thereby causing the display device 32 to display the received image.

上記MPEG圧縮・伸長部50は、図1に不図示のグラフィックチップ若しくはグラフィックボード、又は、マルチコアのプロセッサ21の一部とソフトウェアとにより構成される。   The MPEG compression / decompression unit 50 includes a graphic chip or graphic board (not shown in FIG. 1), or a part of the multi-core processor 21 and software.

本発明の好適な実施例を以上において説明したが、本発明には他にも種々の変形例が含まれ、上記複数の実施例で述べた構成要素の他の組み合わせ、各構成要素の機能を実現する他の構成を用いたもの、当業者であればこれらの構成又は機能から想到するであろう他の構成も、本発明に含まれる。例えば、本発明には以下のような変形例が含まれる。   The preferred embodiments of the present invention have been described above. However, the present invention includes various modifications, and other combinations of the components described in the above-described embodiments, and the functions of the components. Other configurations that use other configurations, and other configurations that would be conceived by those skilled in the art from these configurations or functions are also included in the present invention. For example, the present invention includes the following modifications.

実施例2において、図2の前景画像G3sを実施例1と同様に背景・主画像合成画像G30に合成し、前景画像G3sにハンドル名等を表示させる構成であってもよい。また、変化を付けるために実施例1と同様に背景画像G2sも背景・主画像合成マスクG20に合成し、入力装置30からの指示に応じて背景画像G2sを変更する構成であってもよい。   In the second embodiment, the foreground image G3s in FIG. 2 may be combined with the background / main image composite image G30 in the same manner as in the first embodiment, and a handle name or the like may be displayed on the foreground image G3s. Further, the background image G2s may be combined with the background / main image combination mask G20 and the background image G2s may be changed in accordance with an instruction from the input device 30 in order to add a change as in the first embodiment.

また、本発明は撮像済みの動画像の各駒画像に対し、オフラインで漫画調に変換することにより、動画を漫画調に変換する構成であってもよい。   Further, the present invention may be configured to convert a moving image into a cartoon tone by converting each frame image of a captured moving image into a cartoon tone offline.

さらに、背景画像G2s又は前景画像G3sとして既存のカラー画像を用い、本発明に適用する場合にこれをモノクロ画像に変換して使用する構成であってもよい。また、背景画像G2s又は前景画像G3sは、カラー画像をそのまま又は編集して用いてもよい。前景画像のアルファ値は二値に限定されず、多値であってもよい。背景・主画像合成マスクG20についても二値マスクに限定されず、画像中の所定周辺部については央部部から遠ざかるほど透明度を小さくした多値のマスクであってもよい。   Further, an existing color image may be used as the background image G2s or the foreground image G3s, and when applied to the present invention, this may be converted into a monochrome image and used. The background image G2s or the foreground image G3s may be used as it is or after being edited. The alpha value of the foreground image is not limited to binary, and may be multivalued. The background / main image composition mask G20 is not limited to a binary mask, and a predetermined peripheral portion in the image may be a multi-value mask having a lower transparency as it is farther from the central portion.

10 画像処理装置
20 本体部
21 プロセッサ
22 バス
23 記憶装置
230 データ記憶領域
24 入力インターフェイス
25 カメラインターフェイス
26 ディスプレインターフェイス
27 通信部
30 入力装置
31 カメラ
32 表示装置
33 アンテナ
40 主処理部
41 漫画調主画像生成部
42 マスク生成部
43 背景・主画像合成部
44 前景合成部
410 リサイズ部
411 グレースケール化部
412、414 二値化部
413 切り抜き部
415 エッジ検出反転部
416 積合成部
420 線膨張部
421 反転部
422、424 ラベリング部
423 粗マスク生成部
425 小面積白領域黒化部
50 MPEG圧縮・伸長部
51 Webクライアント
G0 スクリーントーン
G1 被写体画像
G2、G2s 背景画像
G3、G3s 前景画像
G10 スクリーントーン切抜画像
G11 二値画像
G12 輪郭線画像
G13 漫画調主画像
G15 グレースケール画像
G16 マスク
G20 背景・主画像合成マスク
G21 画素連結領域画像
G30 背景・主画像合成画像
G40 漫画調画像
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 20 Main-body part 21 Processor 22 Bus 23 Storage device 230 Data storage area 24 Input interface 25 Camera interface 26 Display interface 27 Communication part 30 Input device 31 Camera 32 Display apparatus 33 Antenna 40 Main processing part 41 Manga tone main image generation Unit 42 mask generation unit 43 background / main image synthesis unit 44 foreground synthesis unit 410 resize unit 411 gray scale unit 412, 414 binarization unit 413 clipping unit 415 edge detection inversion unit 416 product synthesis unit 420 linear expansion unit 421 inversion unit 422, 424 Labeling unit 423 Coarse mask generation unit 425 Small area white area blackening unit 50 MPEG compression / decompression unit 51 Web client G0 Screen tone G1 Subject image G2, G2s Background image G3, G 3s foreground image G10 Screen tone clipping image
G11 Binary image G12 Outline image G13 Cartoon-tone main image G15 Grayscale image G16 Mask G20 Background / main image composite mask G21 Pixel connected region image G30 Background / main image composite image G40 Cartoon-tone image

Claims (5)

プロセッサと、プログラム及びデータが格納された記憶手段と、画像出力手段とを備え、該データは、カメラで撮像された被写体画像と、スクリーントーンとを含み、該プログラムが該プロセッサに対し、該被写体画像を漫画調に変換させる画像処理装置において、該プログラムは該プロセッサに対し、
(a)該被写体画像をグレースケール画像に変換させ、
(b)該グレースケール画像を第1の閾値で2値化させたマスクを生成させ、該スクリーントーンの、該マスクの白画素の位置に対応した画素からなるスクリーントーン切抜画像を生成させ、
(c)該グレースケール画像を、該第1の閾値より小さい第2の閾値で2値化させて2値画像を生成させ、
(d)該グレースケール画像のエッジ画像を反転させた輪郭線画像を生成させ、
(e)該スクリーントーン切抜画像と該2値画像と該輪郭線画像とを積合成させた第1合成画像を生成させ、
該第1合成画像の一部又は全部を含む画像を漫画調画像として該画像出力手段に供給させることを特徴とする画像処理装置。
A processor, storage means for storing the program and data, and image output means, the data including a subject image captured by a camera and a screen tone, and the program sends the subject to the processor In an image processing apparatus for converting an image into a cartoon tone, the program
(A) converting the subject image into a grayscale image;
(B) generating a mask in which the grayscale image is binarized with a first threshold, generating a screen tone cut-out image composed of pixels of the screen tone corresponding to positions of white pixels of the mask,
(C) binarizing the grayscale image with a second threshold smaller than the first threshold to generate a binary image;
(D) generating a contour image obtained by inverting the edge image of the grayscale image;
(E) generating a first synthesized image obtained by product synthesis of the screen tone cut-out image, the binary image, and the contour line image;
An image processing apparatus, wherein an image including a part or all of the first composite image is supplied to the image output means as a comic image.
該データはさらに背景画像を含み、
該プログラムは該プロセッサに対しさらに、
(f)該輪郭線画像の輪郭線を太らせ、該太らせた輪郭線で分割される第1の画素連結領域のうち、画像枠上の予め定めた1対の辺上の画素を含む画素連結領域を除外した領域を第2の連結領域として求めさせ、該第2の連結領域のうち画素数が閾値以下のものを除外した領域内の各画素を2値の一方の値とし残りの領域を該2値の他方の値とするマスクを生成させ、
(g)該背景画像の、該マスク内の画素のうち該2値の該他方の値の位置に対応する画素と、該第1合成画像の、該マスク内の画素のうち該2値の該他方の値の位置に対応する画素とを合成させた第2合成画像を生成させ、
該漫画調画像は、第2合成画像の一部又は全部を含むことを特徴とする請求項1に記載の画像処理装置。
The data further includes a background image,
The program further provides the processor with
(F) Pixels including pixels on a predetermined pair of sides on the image frame in the first pixel connection region divided by the thickened contour line by thickening the contour line of the contour image The area excluding the connected area is obtained as the second connected area, and each pixel in the area excluding the second connected area from which the number of pixels is less than or equal to the threshold is set as one of the two values, and the remaining area To generate a mask with the other of the two values as
(G) a pixel corresponding to the position of the other value of the binary values among the pixels in the mask of the background image, and the binary value of the pixels in the mask of the first composite image. Generating a second composite image in which the pixel corresponding to the position of the other value is combined;
The image processing apparatus according to claim 1, wherein the cartoon image includes a part or all of the second composite image.
該データはさらに、アルファチャンネル付前景画像を含み、
該プログラムは該プロセッサに対しさらに、
(h)該第2合成画像を該アルファチャンネルのマスクでマスクした第3合成画像を生成させ、
該漫画調画像は、第3合成画像の一部又は全部を含むことを特徴とする請求項2に記載の画像処理装置。
The data further includes a foreground image with an alpha channel;
The program further provides the processor with
(H) generating a third composite image obtained by masking the second composite image with the mask of the alpha channel;
The image processing apparatus according to claim 2, wherein the cartoon image includes a part or all of a third composite image.
請求項1乃至3のいずれか1つに記載の画像処理装置と、
該被写体画像を撮像するカメラと、
を備え、該被写体画像は静止画又は動画の駒画像であり、該出力手段は画像表示手段であることを特徴とする携帯端末装置。
An image processing apparatus according to any one of claims 1 to 3,
A camera that captures the subject image;
The mobile terminal device is characterized in that the subject image is a still image or a frame image of a moving image, and the output means is an image display means.
請求項1に記載の画像処理装置と、
該被写体画像を撮像するカメラと、
を備え、該画像処理装置は該カメラで撮像された動画を構成する時系列画像のそれぞれを該被写体画像として該漫画調画像に変換させ、該漫画調画像を順次該出力手段に供給させ、該出力手段は表示手段又は通信手段であることを特徴とする携帯端末装置。
An image processing apparatus according to claim 1;
A camera that captures the subject image;
The image processing device converts each of the time-series images constituting the moving image captured by the camera into the comic image as the subject image, sequentially supplies the comic image to the output unit, and The portable terminal device, wherein the output means is a display means or a communication means.
JP2012252788A 2012-11-17 2012-11-17 Image processor Pending JP2014102596A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012252788A JP2014102596A (en) 2012-11-17 2012-11-17 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012252788A JP2014102596A (en) 2012-11-17 2012-11-17 Image processor

Publications (1)

Publication Number Publication Date
JP2014102596A true JP2014102596A (en) 2014-06-05

Family

ID=51025070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012252788A Pending JP2014102596A (en) 2012-11-17 2012-11-17 Image processor

Country Status (1)

Country Link
JP (1) JP2014102596A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020129778A1 (en) * 2018-12-20 2020-06-25 キヤノン株式会社 Image processing device, method of controlling image processing device, and program
CN111986096A (en) * 2019-05-22 2020-11-24 上海哔哩哔哩科技有限公司 Cartoon generation method and cartoon generation device based on edge extraction
CN112417873A (en) * 2020-11-05 2021-02-26 武汉大学 Automatic cartoon generation method and system based on BBWC (BBWC) model and MCMC (Multi-media card computer)
WO2021058097A1 (en) * 2019-09-25 2021-04-01 Florian Janker Method, computer program product, and image processing system for producing a template for tattooing and/or drawing

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020129778A1 (en) * 2018-12-20 2020-06-25 キヤノン株式会社 Image processing device, method of controlling image processing device, and program
JP2020102675A (en) * 2018-12-20 2020-07-02 キヤノン株式会社 Image processing device, control method of the same, and program
US11423268B2 (en) 2018-12-20 2022-08-23 Canon Kabushiki Kaisha Image processing apparatus, image processing apparatus control method, and storage medium
CN111986096A (en) * 2019-05-22 2020-11-24 上海哔哩哔哩科技有限公司 Cartoon generation method and cartoon generation device based on edge extraction
CN111986096B (en) * 2019-05-22 2024-02-13 上海哔哩哔哩科技有限公司 Cartoon generation method and cartoon generation device based on edge extraction
WO2021058097A1 (en) * 2019-09-25 2021-04-01 Florian Janker Method, computer program product, and image processing system for producing a template for tattooing and/or drawing
CN112417873A (en) * 2020-11-05 2021-02-26 武汉大学 Automatic cartoon generation method and system based on BBWC (BBWC) model and MCMC (Multi-media card computer)
CN112417873B (en) * 2020-11-05 2024-02-09 武汉大学 Automatic cartoon generation method and system based on BBWC model and MCMC

Similar Documents

Publication Publication Date Title
JP4803304B2 (en) Image processing apparatus and program
WO2017016171A1 (en) Window display processing method, apparatus, device and storage medium for terminal device
CN110248242B (en) Image processing and live broadcasting method, device, equipment and storage medium
JP2014102596A (en) Image processor
US20230300475A1 (en) Image processing method and apparatus, and electronic device
JP5896204B2 (en) Image processing apparatus and program
JP2007249436A (en) Image signal processor and processing method
JP5826980B1 (en) Image processing apparatus and image processing method
JP2004334852A (en) Image processing by pixel types
JP2009094902A (en) Image synthesizing apparatus, image synthesizing method, program and recoding medium
JP4387907B2 (en) Image processing method and apparatus
CN117830077A (en) Image processing method and device and electronic equipment
JP2018195262A (en) Image processing apparatus, image processing method, and program
JP2011076302A (en) Device, contour extraction method program, and contour extraction
JP2002042132A (en) Image processing device and its method
JP2004199622A (en) Apparatus and method for image processing, recording media, and program
CN113393391B (en) Image enhancement method, image enhancement device, electronic apparatus, and storage medium
US11176720B2 (en) Computer program, image processing method, and image processing apparatus
JP2014206849A (en) Information processor and program thereof
JP2013250314A (en) Image processor, display device, information processor and image processing method
US8698832B1 (en) Perceptual detail and acutance enhancement for digital images
KR20020084321A (en) real-time character composition method using template
TWI442329B (en) Image processing method for deriving text characteristic image from input image and related apparatus thereof
JP2021022263A (en) Image processing program, image processing device, image processing system, and image processing method
JP2015088910A (en) Image processing device