JP5532004B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP5532004B2
JP5532004B2 JP2011078900A JP2011078900A JP5532004B2 JP 5532004 B2 JP5532004 B2 JP 5532004B2 JP 2011078900 A JP2011078900 A JP 2011078900A JP 2011078900 A JP2011078900 A JP 2011078900A JP 5532004 B2 JP5532004 B2 JP 5532004B2
Authority
JP
Japan
Prior art keywords
image
image data
rgb
face
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011078900A
Other languages
Japanese (ja)
Other versions
JP2012215927A (en
Inventor
元基 熊崎
勝 坂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011078900A priority Critical patent/JP5532004B2/en
Priority to CN2012100860598A priority patent/CN102737369A/en
Priority to US13/435,339 priority patent/US20120250997A1/en
Priority to EP12162314A priority patent/EP2506552A1/en
Publication of JP2012215927A publication Critical patent/JP2012215927A/en
Application granted granted Critical
Publication of JP5532004B2 publication Critical patent/JP5532004B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、例えば人物を含む写真画像を絵画変換するにあたって人物の顔部分の変換度合いを変化させて処理するようにした画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program which are processed by changing the degree of conversion of a person's face part when, for example, converting a photographic image including a person into a painting.

近年、デジタルカメラの普及に伴い写真の楽しみ方が多様化している。特にデジタル画像データであるため、色々な画像処理が可能である。   In recent years, with the widespread use of digital cameras, the way to enjoy photos has become diversified. In particular, since it is digital image data, various image processing is possible.

例えば、画像処理を加えることで元の写真をベースとしつつも趣の異なる画調の画像(絵画調等)を生成して表示することができるようにした技術が提案されている(例えば、特許文献1参照)。   For example, a technique has been proposed that can generate and display an image with a different tone (such as a painting tone) based on an original photograph by adding image processing (for example, a patent) Reference 1).

特許文献1の技術を発展させ、実際に画家が描いた絵画の画像から色彩情報と筆蝕情報等の特徴を抽出し、撮影された画像に抽出した特徴を付与することにより、原画像全体を勘案して、芸術性の高い絵画調画像に変換する技術も提案されるに至っている(例えば、特許文献2参照)。   The technology of Patent Document 1 is developed, and features such as color information and brushing information are extracted from the image of the painting actually drawn by the painter. Considering this, a technique for converting to a painting-like image with high artisticness has also been proposed (see, for example, Patent Document 2).

また、絵画調などの画質を変更することによって変化をもたせる技術も提案されている(例えば、特許文献3参照)。   In addition, a technique for changing a picture quality such as a painting style has been proposed (see, for example, Patent Document 3).

特開平8−44867号公報JP-A-8-44867 特開2004−213598号公報JP 2004-213598 A 特公平1−46905号公報JP-B-1-46905

しかし、写真を絵画調の作品に変換する場合、景色や花、建築物などの写真については大胆な画調変換を行っても芸術性を得ることができるが、人間の顔の場合は、極端な変換をかけると見た目がおかしい作品になる可能性があるという課題があった。   However, when converting a photo into a painting-like work, it is possible to obtain artistic effects even when bold, such as landscapes, flowers, and buildings, but in the case of a human face, There was a problem that it might become a work that looks strange when it is subjected to various transformations.

本発明は、絵画調等の画調変換を行う際に、顔の領域を検出することによって、顔の領域と他の領域とで異なった画調変換を行うことによって、人間の顔を自然に表現できる画像処理装置、画像処理方法及びプログラムを提供することを目的とする。   The present invention naturally detects a human face by performing a different tone conversion between a face area and another area by detecting a face area when performing a tone conversion such as a painting style. It is an object to provide an image processing apparatus, an image processing method, and a program that can be expressed.

前記課題を解決するため、請求項1記載の発明に係る画像処理装置は、画像データの中から顔を検出する顔検出手段と、前記顔検出手段が検出した前記顔に対応する領域を決定する領域決定手段と、前記画像データに対し、前記領域検出手段により検出された顔に対応する領域の画像データに第1の画調変換処理を行うとともに、前記顔に対応する領域以外の画像データに第2の画調変換処理を行う画調変換処理手段とを備えたことを特徴とする。   In order to solve the above problem, an image processing apparatus according to claim 1 determines a face detection unit for detecting a face from image data and a region corresponding to the face detected by the face detection unit. A region determination unit performs a first tone conversion process on the image data of the region corresponding to the face detected by the region detection unit, and converts the image data to image data other than the region corresponding to the face. And a tone conversion processing means for performing the second tone conversion processing.

前記課題を解決するため、請求項1に係る発明は、顔を含む画像データを複数種類の画調に変換可能な画像処理装置において、前記複数種類の画調の中から1つの種類を選択する選択手段と、画像データの中から顔を検出する顔検出手段と、前記顔検出手段が検出した前記顔に対応する領域(sq)内側と外側の境界領域(el、el5)とを決定する領域決定手段と、前記画像データを前記選択手段により選択された種類の画調に変換するに当たり、前記領域決定手段により決定された顔に対応する領域(sq)の画像データにパラメータに応じて第1の画調変換処理を行い、前記領域決定手段により決定された前記内側の境界領域(el)の画像データに対しパラメータに応じて第2の画調変換処理を行い、前記領域決定手段により決定された前記外側の境界領域(el5)の画像データにパラメータに応じて第3の画調変換処理を行い、前記顔に対応する領域(sq)と前記境界領域(el、el5)以外の画像データにパラメータに応じて第4の画調変換処理を行う画調変換処理手段と、を備え、前記画調変換処理手段は、前記画像データの複数の画素のグループにより筆触を形成する手段を含むとともに、前記画像データの画素をA(RGB)(x、y)で表し、(ここで(x,y)は2次元の座標、(RGB)は画素AのRGBの値)前記パラメータをPで代表し、前記パラメータの影響度をαで代表したとき、前記顔に対応する領域(sq)の画像データにA(RGB)(x,y)=A(RGB)(x,y)*P*α1(x,y)で表される処理を実行し、前記内側の境界領域の画像データにA(RGB)(x,y)=A(RGB)(x,y)*P*α2(x,y)で表される処理を実行し、前記外側の境界領域の画像データにA(RGB)(x,y)=A(RGB)(x,y)*P*α3(x,y)で表される処理を実行し、且つ、α1>α2>α3であることを特徴とする画像処理装置を提供するものである。
In order to solve the above problem, the invention according to claim 1 is an image processing apparatus capable of converting image data including a face into a plurality of types of image tone, and selects one type from the plurality of types of image tone. A selection unit, a face detection unit for detecting a face from image data, a region (sq) corresponding to the face detected by the face detection unit, and inner and outer boundary regions (el, el5) are determined. In converting the image data into the type of image tone selected by the selection unit and the region determination unit, the image data of the region (sq) corresponding to the face determined by the region determination unit is changed according to the parameter. The first image tone conversion processing is performed, the second image tone conversion processing is performed on the image data of the inner boundary region (el) determined by the region determination unit according to the parameter, and the region determination unit determines The third image tone conversion processing is performed on the image data of the outer boundary region (el5) that has been made according to the parameters, and image data other than the region (sq) corresponding to the face and the boundary region (el, el5) And a tone conversion processing means for performing a fourth tone conversion process according to the parameter, and the tone conversion processing means includes means for forming a brushstroke by a group of a plurality of pixels of the image data. The pixel of the image data is represented by A (RGB) (x, y), where (x, y) is a two-dimensional coordinate, (RGB) is the RGB value of the pixel A, and the parameter is represented by P When the influence degree of the parameter is represented by α, A (RGB) (x, y) = A (RGB) (x, y) * P * α1 is added to the image data of the region (sq) corresponding to the face. The process represented by (x, y) is executed, and the inside Image data in A (RGB) (x, y ) of the boundary region = A (RGB) (x, y) * P * α2 (x, y) and executes the processing represented by the boundary area of the outer A process represented by A (RGB) (x, y) = A (RGB) (x, y) * P * α3 (x, y) is executed on the image data, and α1>α2> α3. An image processing apparatus characterized by the above is provided.

請求項4に係る発明は、顔を含む画像データを複数種類の画調に変換可能な画像処理方法において、前記複数種類の画調の中から1つの種類を選択する選択工程と、画像データの中から顔を検出する顔検出工程と、前記検出した前記顔に対応する領域(sq)と内側と外側の境界領域(el、el5)とを決定する領域決定工程と、前記画像データを前記選択工程により選択された種類の画調に変換するに当たり、前記領域決定工程により決定された顔に対応する領域(sq)の画像データにパラメータに応じて第1の画調変換処理を行い、前記領域決定工程により決定された前記内側の境界領域(el)の画像データ対しパラメータに応じて第2の画調変換処理を行い、前記領域決定工程により決定された前記外側の境界領域(el5)の画像データにパラメータに応じて第3の画調変換処理を行い、前記顔に対応する領域(sq)と前記境界領域(el、el5)以外の画像データにパラメータに応じて第4の画調変換処理を行う画調変換処理工程と、を含み、前記画調変換処理工程は、前記画像データの複数の画素のグループにより筆触を形成する工程を含むとともに、前記画像データの画素をA(RGB)(x、y)で表し、(ここで(x,y)は2次元の座標、(RGB)は画素AのRGBの値)前記パラメータをPで代表し、前記パラメータの影響度をαで代表したとき、前記顔に対応する領域の画像データにA(RGB)(x,y)=A(RGB)(x,y)*P*α1(x,y)で表される処理を実行し、前記内側の境界領域の画像データにA(RGB)(x,y)=A(RGB)(x,y)*P*α2(x,y)で表される処理を実行し、前記外側の境界領域の画像データにA(RGB)(x,y)=A(RGB)(x,y)*P*α3(x,y)で表される処理を実行し、且つ、α1>α2>α3であることを特徴とする画像処理方法を提供するものである。
また、請求項5に係る発明は、顔を含む画像データを複数種類の画調に変換可能な画像処理装置のコンピュータを、前記複数種類の画調の中から1つの種類を選択する選択手段と、画像データの中から顔を検出する顔検出手段と、前記顔検出手段が検出した前記顔に対応する領域(sq)と内側と外側の境界領域(el、el5)とを決定する領域決定手段と、して機能させるとともに、前記画像データを前記選択手段により選択された種類の画調に変換するに当たり、前記領域決定手段により決定された顔に対応する領域(sq)の画像データにパラメータに応じて第1の画調変換処理を行い、前記領域決定手段により決定された前記内側の境界領域(el)の画像データに対しパラメータに応じて第2の画調変換処理を行い、前記領域決定手段により決定された前記外側の境界領域(el5)の画像データにパラメータに応じて第3の画調変換処理を行い、前記顔に対応する領域(sq)と前記境界領域(el、el5)以外の画像データにパラメータに応じて第4の画調変換処理を行う画調変換処理手段と、して機能させ、前記画調変換処理手段は、前記画像データの複数の画素のグループにより筆触を形成する手段を含むとともに、前記画像データの画素をA(RGB)(x、y)で表し、(ここで(x,y)は2次元の座標、(RGB)は画素AのRGBの値)前記パラメータをPで代表し、前記パラメータの影響度をαで代表したとき、前記顔に対応する領域(sq)の画像データにA(RGB)(x,y)=A(RGB)(x,y)*P*α1(x,y)で表される処理を実行し、前記内側の境界領域の画像データにA(RGB)(x,y)=A(RGB)(x,y)*P*α2(x,y)で表される処理を実行し、前記外側の境界領域の画像データにA(RGB)(x,y)=A(RGB)(x,y)*P*α3(x,y)で表される処理を実行し、且つ、α1>α2>α3であることを特徴とする画像処理プログラムを提供するものである。
According to a fourth aspect of the present invention, there is provided an image processing method capable of converting image data including a face into a plurality of types of image tone, a selection step of selecting one type from the plurality of types of image tone, A face detecting step for detecting a face from the inside; a region determining step for determining a region (sq) corresponding to the detected face and inner and outer boundary regions (el, el5); and the selection of the image data In converting to the type of image tone selected by the process, the image data of the area (sq) corresponding to the face determined by the area determining process is subjected to a first image tone conversion process according to a parameter, and the area determined by the determining step that said inner boundary region (el) performs second image tone conversion processing in accordance with the against parameter to the image data of said region determining step said outer boundary region determined by (el5) A third tone conversion process is performed on the image data according to the parameter, and a fourth tone conversion is performed on the image data other than the area (sq) corresponding to the face and the boundary area (el, el5) according to the parameter. A tone conversion processing step for performing processing, wherein the tone conversion processing step includes a step of forming a brushstroke by a group of a plurality of pixels of the image data, and the pixels of the image data are represented by A (RGB) (X, y) (where (x, y) is a two-dimensional coordinate, (RGB) is the RGB value of the pixel A) The parameter is represented by P, and the influence of the parameter is represented by α The image data of the area corresponding to the face is subjected to processing represented by A (RGB) (x, y) = A (RGB) (x, y) * P * α1 (x, y) A (RGB) (x, y) is added to the image data of the inner boundary region. = A (RGB) (x, y) * P * α2 (x, y) is executed, and A (RGB) (x, y) = A (RGB) is applied to the image data of the outer boundary region. ) (X, y) * P * α3 (x, y) is executed, and an image processing method is provided that satisfies α1>α2> α3.
According to a fifth aspect of the present invention, there is provided a computer of an image processing apparatus capable of converting image data including a face into a plurality of types of image tone, and a selection means for selecting one type from the plurality of types of image tone. , A face detection unit for detecting a face from the image data, and a region determination unit for determining a region (sq) corresponding to the face detected by the face detection unit and inner and outer boundary regions (el, el5) And converting the image data into the type of image tone selected by the selection means, the image data of the area (sq) corresponding to the face determined by the area determination means is used as a parameter. In response, a first tone conversion process is performed, and a second tone conversion process is performed on the image data of the inner boundary area (el) determined by the area determination unit according to a parameter. Third image tone conversion processing is performed on the image data of the outer boundary area (el5) determined by the means according to the parameters, and the area other than the area (sq) corresponding to the face and the boundary area (el, el5) The image data of the image data is made to function as a tone conversion processing unit that performs a fourth tone conversion process according to the parameters, and the tone conversion processing unit forms a brushstroke by a group of a plurality of pixels of the image data. And the pixel of the image data is represented by A (RGB) (x, y) (where (x, y) is a two-dimensional coordinate, and (RGB) is the RGB value of the pixel A) When the parameter is represented by P and the influence of the parameter is represented by α, A (RGB) (x, y) = A (RGB) (x, y) is added to the image data of the region (sq) corresponding to the face. ) * P * α1 (x, y) And the process represented by A (RGB) (x, y) = A (RGB) (x, y) * P * α2 (x, y) is performed on the image data of the inner boundary region, A process represented by A (RGB) (x, y) = A (RGB) (x, y) * P * α3 (x, y) is performed on the image data of the outer boundary region, and α1> An image processing program characterized by α2> α3 is provided.

本発明によれば、人物が写った写真画像を絵画調画像に変換する画像変換処理を好適に行うことができる。   According to the present invention, it is possible to suitably perform image conversion processing for converting a photographic image showing a person into a painting-like image.

特に、本発明によれば、人物の顔の部分と顔以外の部分とで異なる画調処理をかけることによって、絵画調画像での全体としての不自然さをなくし、人物の顔が自然に見える絵画変換を実現できるという優れた効果がある。   In particular, according to the present invention, by applying different image tone processing to the face portion and the non-face portion of the person, the unnaturalness in the whole picture-like image is eliminated, and the face of the person looks natural. There is an excellent effect that picture conversion can be realized.

本発明の実施形態による画像表示システムのネットワーク系の構成を示すブロック図The block diagram which shows the structure of the network system of the image display system by embodiment of this invention 同実施形態による画像サービスサイト10の構成を示すブロック図The block diagram which shows the structure of the image service site 10 by the embodiment 同実施形態によるユーザーIDの属性情報を示す図The figure which shows the attribute information of the user ID by the embodiment 同実施形態による作品のデータ構成を示す図The figure which shows the data structure of the work by the embodiment 同実施形態による絵画変換処理を説明するためのフローチャートFlowchart for explaining a picture conversion process according to the embodiment 同実施形態による顔検出処理を説明するためのフローチャートFlowchart for explaining face detection processing according to the embodiment 同実施形態による顔の領域作成を説明するための図The figure for demonstrating creation of the face area | region by the embodiment (a),(b),(c)は同実施形態による重要度マップを説明するための図(A), (b), (c) is a figure for demonstrating the importance map by the embodiment. 同実施形態による顔の領域の境界を説明するための図The figure for demonstrating the boundary of the area | region of the face by the embodiment 同実施形態による端末とサーバー間のデータのやり取りを示す図The figure which shows the exchange of the data between the terminal and server by the embodiment 同実施形態におけるダウンロードを説明するためのフローチャートFlowchart for explaining download in the embodiment

以下、本発明の実施の形態について図面を参照して説明する。
実施形態
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
Embodiment

図1は、本実施形態による画像表示システムのネットワーク系の構成を示すブロック図である。   FIG. 1 is a block diagram showing the configuration of the network system of the image display system according to the present embodiment.

図中符号10はSNS(ソーシャル・ネットワーク・サービス)機能を持った画像サービスサイトであり、インターネット500を介して複数の端末1−1、1−2、1−3・・・と接続される。端末は通常のパーソナルコンピュータでよい。   Reference numeral 10 in the figure denotes an image service site having an SNS (social network service) function, and is connected to a plurality of terminals 1-1, 1-2, 1-3,. The terminal may be a normal personal computer.

図2は画像サービスサイト10の構成を示すブロック図である。   FIG. 2 is a block diagram showing the configuration of the image service site 10.

サーバーを有し、サーバー内に会員エリア100、共通エリア200、制御エリア300が設けられる。20は全体を制御するCPUであり、30はCPU20が作業を行う際のワークメモリである。   A server has a member area 100, a common area 200, and a control area 300 in the server. Reference numeral 20 denotes a CPU for controlling the whole, and reference numeral 30 denotes a work memory when the CPU 20 performs work.

会員エリア100は、登録会員毎に設けられるエリアで、会員を識別するためのユーザーID102と、それに対応してユーザー毎の各種属性情報104を有する。   The member area 100 is an area provided for each registered member, and has a user ID 102 for identifying the member and various attribute information 104 for each user correspondingly.

属性情報104は、図3に示すように、氏名、ハンドルネーム、性別、年齢、地域、会員種別その他のユーザー固有の情報である。会員種別には無料登録しただけの無料会員、有料登録した有料会員及び所定の条件を満たしたプレミアム会員がある。   As shown in FIG. 3, the attribute information 104 is user-specific information such as name, handle name, gender, age, region, membership type, and the like. The membership type includes a free member who has just registered for free, a paid member who has registered for a fee, and a premium member who satisfies a predetermined condition.

また、106はユーザーが写真をアップロードするアップロード画像エリア、108は画像サービスサイト10により絵画変換を行った作品が記憶される作品バッファエリア、110は他のユーザーの作品をダウンロードして記憶するダウンロード作品バッファエリアである。   Reference numeral 106 denotes an upload image area in which a user uploads a photo, 108 denotes a work buffer area in which a work whose picture has been converted by the image service site 10 is stored, and 110 denotes a download work in which a work of another user is downloaded and stored. It is a buffer area.

共通エリア200は、ユーザー全体に共通して設けられるエリアで、ユーザーがアップロードした画像を絵画調に変換した多数の作品が記憶される作品エリア202を含む。   The common area 200 is an area provided in common to all users, and includes a work area 202 in which a number of works obtained by converting an image uploaded by the user into a painting style are stored.

作品エリア202に記憶される各作品には、その作品を識別する画像ID204と、その作品の属性情報206が画像データ208とともに記憶される。   Each work stored in the work area 202 stores an image ID 204 for identifying the work and attribute information 206 of the work together with image data 208.

属性情報206は、図4に示すように、その作品の投稿者を示すユーザーID、作成日付または投稿日付等の日付情報、画像データのサイズ、画調の種類等の画像種別情報、その作品が閲覧された回数を示すアクセス数情報、その作品がダウンロードされた回数を示すダウンロード数情報、その作品の評価を示すポイント情報その他の作品特有の情報である。   As shown in FIG. 4, the attribute information 206 includes a user ID indicating a contributor of the work, date information such as a creation date or a posting date, image type information such as the size of image data and a type of image, Access number information indicating the number of times of browsing, download number information indicating the number of times the work has been downloaded, point information indicating evaluation of the work, and other information unique to the work.

制御エリア300は、画像データを絵画変換処理する画像処理プログラムが記憶された絵画変換処理部302、絵画変換処理の時に参照され、絵画変換のためのパラメータが記憶されるパラメータテーブル304、絵画変換処理の時に参照され、画像データ中の各画素の重要度が記憶される重要度マップ306、作品を画面上に表示させる制御プログラムが記憶される表示制御部308、アクセス回数等に応じて作品の評価を行い作品にポイントを付与する制御プログラムが記憶される評価制御部310、ユーザーIDにより会員を管理し、無料会員、有料会員、プレミアム会員別のサービスを制御する会員管理部312を含んでいる。この会員管理部312は画像サービスサイト10のSNS機能についても司っている。   The control area 300 includes a picture conversion processing unit 302 that stores an image processing program for performing picture conversion processing on image data, a parameter table 304 that is referred to during picture conversion processing and stores parameters for picture conversion, and picture conversion processing. The importance map 306 for storing the importance of each pixel in the image data, the display control unit 308 for storing the control program for displaying the work on the screen, the evaluation of the work according to the number of accesses, etc. And an evaluation control unit 310 that stores a control program for assigning points to a work, and a member management unit 312 that manages members according to user IDs and controls services for free members, paid members, and premium members. The member management unit 312 also manages the SNS function of the image service site 10.

また、この制御エリア300には、画像データに人物の顔部分が含まれるか否かを検出するとともに、該検出によって顔に対応する領域を決定する顔検出処理部314が設けられている。   In addition, the control area 300 is provided with a face detection processing unit 314 that detects whether or not a face portion of a person is included in the image data and determines an area corresponding to the face by the detection.

以下、本実施形態の画像表示システムの具体的な動作について図5のフローチャートを参照しながら説明する。   Hereinafter, a specific operation of the image display system of the present embodiment will be described with reference to the flowchart of FIG.

まず、絵画変換処理技術について説明する。   First, the painting conversion processing technique will be described.

絵画変換とは、写真等の画像を構成する各画素を所定のパラメータ(絵画変換パラメータ)に従って変換し、油絵調、水彩画調、パステル調、色鉛筆画調、クレヨン画調、イラスト画調、点描画調、エアブラシ、シルクスクリーン調、刺繍絵調、コラージュ(糊付け)調等、いわゆる絵画調に変換する画像処理技術である。   Picture conversion means that each pixel constituting an image such as a photo is converted according to predetermined parameters (painting conversion parameters), oil painting, watercolor, pastel, colored pencil painting, crayon painting, illustration painting, dot drawing. This is an image processing technique for converting into a so-called painting tone, such as a tone, an airbrush, a silk screen tone, an embroidery tone, and a collage tone.

基本的にフォトレタッチソフト等で知られている各種エフェクト処理のパラメータを調整・組み合わせて絵画調に見えるように変換する。   Basically, various effect processing parameters known for photo retouching software, etc. are adjusted and combined to transform them so that they look like paintings.

エフェクト処理としては、例えば画像にテクスチャをマッピングし、特殊な質感を与えるテクスチャ処理、画像を輪郭部・細かい模様などのテクスチャ部・平坦部に分類し、それぞれに適宜処理を施すことで、質感と解像感を高める解像度処理、色を色相(Hue)、彩度(Saturation)、明度(Value)の3要素に分類して調整するHSV処理、画像のR(赤)G(緑)B(青)各色の度合いを調整するRGB処理、R→G→Bの方向に交換するRGB交換処理、ラプラシアンフィルタと呼ばれるフィルタをかけるエッジ抽出処理、メディアンフィルタと呼ばれるフィルタをかける中間濃度抽出処理、隣接する画素のRGBのヒストグラムを抽出し、それぞれ最小/中間/最大の濃度を抽出した場合の処理を行う濃度抽出処理、画像の一番暗い部分を黒、一番明るい部分を白とし、間のヒストグラムを適宜分布させ、コントラスト修正を行ったり画像のヒストグラムを引き伸ばすイコライズ処理、明るい部分と暗い部分を維持して中間的な明るさを調節するガンマ補正処理、画像の暗い領域を明るくしたり、明るい領域を暗くしたりするシャドー処理、各ピクセルのRGB値が、しきい値以上の明るさの時に、そのRGB値を反転するソラリゼーション処理、ランダムにドットを描画し、ノイズを発生させ、ノイズの量や色を調整するノイズ付加処理、などがある。   As effect processing, for example, texture processing is performed by mapping a texture to an image to give a special texture, and the image is classified into a texture portion and a flat portion such as a contour portion, a fine pattern, etc. Resolution processing that enhances resolution, HSV processing that adjusts the color by classifying it into three elements of Hue, Saturation, and Lightness (Value), R (Red) G (Green) B (Blue) ) RGB processing for adjusting the degree of each color, RGB exchange processing for exchanging in the direction of R → G → B, edge extraction processing for applying a filter called a Laplacian filter, intermediate density extraction processing for applying a filter called a median filter, adjacent pixels The RGB histogram is extracted, and the density extraction process is performed when the minimum / intermediate / maximum density is extracted, respectively, the darkest part of the image is black, The white part is white and the histogram between them is distributed as appropriate, the contrast is corrected and the histogram of the image is expanded, the gamma correction process that adjusts the intermediate brightness while maintaining the bright and dark parts, the image Shadow processing that brightens dark areas or darkens bright areas, Solarization processing that inverts RGB values when the RGB value of each pixel is equal to or higher than the threshold value, draws dots randomly, There is noise addition processing that generates noise and adjusts the amount and color of noise.

また、HDR(High Dynamic Range)と呼ばれる通常の写真では表現できない広いダイナミックレンジの写真を、トーンマッピングにより狭いダイナミックレンジ幅内に入れ込むことで露出過多の白飛びや露出不足の黒つぶれを補正して表現力を増大するエフェクト処理もある。   In addition, a photo with a wide dynamic range that cannot be represented by a normal photo called HDR (High Dynamic Range) is included in a narrow dynamic range width by tone mapping to correct overexposure and overexposure blackout. There is also an effect process that increases expressiveness.

すなわち、絵画変換処理は原理的にはエフェクト処理の一種であり、絵画変換アルゴリズムはエフェクト処理とパラメータの組み合わせにより各種絵画調を作り出し、その変換アルゴリズムをプログラミングしてあるものである。   In other words, the picture conversion process is a kind of effect process in principle, and the picture conversion algorithm creates various painting styles by combining the effect process and parameters, and the conversion algorithm is programmed.

その変換アルゴリズムの中に、原画像の画素を変換するための前記パラメータのセット(組)であるパラメータ群Pが予め用意されている。画調の種類が12種類あるとすると、パラメータ群P(1)〜P(12)と表す。パラメータの決め方により変換された画像の画調も変わってくる。油絵調に変換するためのパラメータ群をP(1)とし、P(1)の中に油絵調に見えるように画像を変換するためのエフェクト処理に必要なパラメータがm個あるとすると、パラメータP1〜Pmと表す。   In the conversion algorithm, a parameter group P that is a set of the parameters for converting the pixels of the original image is prepared in advance. If there are 12 types of image tone types, the parameter groups are represented as P (1) to P (12). The tone of the converted image also changes depending on how the parameters are determined. Assuming that a parameter group for converting to an oil painting tone is P (1), and there are m parameters necessary for effect processing for converting an image so that it looks like an oil painting tone in P (1), the parameter P1 It represents -Pm.

画素は一般的にRGB各複数ビットの階調で表現されるが、パラメータはそのビットデータに演算をかけるための要素である。例えば赤成分を強調して緑成分と青成分をやや抑えるときにR×2、G×0.9、B×0.5、のような演算をする場合の前記“2”、“0.9”、“0.5”はパラメータである。   A pixel is generally expressed by gradations of a plurality of bits for each of RGB, but a parameter is an element for performing an operation on the bit data. For example, when the red component is emphasized to slightly suppress the green component and the blue component, the above “2”, “0.9” in the case of calculation such as R × 2, G × 0.9, B × 0.5 "," 0.5 "is a parameter.

あるいは、予め演算要素がプログラミングされており、赤の強調度1のときはR×1.1、強調度2のときはR×1.2、強調度3のときはR×1.3のような演算をする場合の強調度もパラメータである。   Alternatively, the calculation elements are programmed in advance, and R × 1.1 when the red emphasis level is 1, R × 1.2 when the emphasis level is 2, and R × 1.3 when the emphasis level is 3. The degree of emphasis when performing simple calculations is also a parameter.

また、注目画素と隣接画素の間で所定の演算をかける場合もある。例えば注目画素A5(RGB)を中心に画素A1(RGB)、A2(RGB)、A3(RGB)、A4(RGB)、A5(RGB)、A6(RGB)、A7(RGB)、A8(RGB)、A9(RGB)が上下左右に並んでいるとき、A5(R)に対してA5(R)=A1(R)×q1+A2(R)×q2+A3(R)×q3+A4(R)×q4+A5(R)×q5+A6(R)×q6+A7(R)×q7+A8(R)×q8+A9(R)×q9という演算を行い、G、Bについても同様の演算を行う。ここでのqがパラメータであり、この数値(係数)を変えることにより異なったエフェクト処理ができる。   In addition, a predetermined calculation may be performed between the target pixel and adjacent pixels. For example, the pixel A1 (RGB), A2 (RGB), A3 (RGB), A4 (RGB), A5 (RGB), A6 (RGB), A7 (RGB), A8 (RGB) around the target pixel A5 (RGB) , A9 (RGB) are aligned vertically and horizontally, A5 (R) = A1 (R) × q1 + A2 (R) × q2 + A3 (R) × q3 + A4 (R) × q4 + A5 (R) The calculation of * q5 + A6 (R) * q6 + A7 (R) * q7 + A8 (R) * q8 + A9 (R) * q9 is performed, and the same calculation is performed for G and B. Here, q is a parameter, and different effect processing can be performed by changing this numerical value (coefficient).

また、タッチ(以下、「筆触」と呼ぶ)が異なるように加工するエフェクト処理もある。   There is also an effect process that processes the touch (hereinafter referred to as “brush touch”) differently.

具体的には、画像データを構成する画素から、色などを基準として相関の高い画素を集め、グループを形成する。続いて、それぞれのグループの画素に対して、同一のグループの画素については色を該グループの代表色に置き換える。こうして色を代表色に置き換えられた画素のグループがそれぞれの筆触を形成する。かかる画像加工処理によると、グループとして集められる画素の相関の取り方、及び同一の色(代表色)の画素により構成されるグループの形状(長さ(距離)、扁平度)を変化させることによって、形成される筆触を変化させることができ、結果的に、画像データが表す画像の画調を様々な絵画調に変更することができる。そして各種画調毎に、それぞれの処理で用いる相関度、グループの形状を表す長さ、扁平度などのパラメータの最適な組み合わせが設定されている。   Specifically, pixels having high correlation are collected from pixels constituting image data on the basis of color or the like to form a group. Subsequently, for each group of pixels, for the same group of pixels, the color is replaced with the representative color of the group. A group of pixels in which the colors are replaced with the representative colors in this way form each brush stroke. According to such image processing, by changing the correlation of the pixels collected as a group and the shape (length (distance), flatness) of the group composed of pixels of the same color (representative color) The formed brush can be changed, and as a result, the tone of the image represented by the image data can be changed to various painting tone. For each image tone, an optimum combination of parameters such as the degree of correlation used in each process, the length representing the shape of the group, and the flatness is set.

複数の画像データの各々を異なる筆触に変更することは、画調を変更する際に、筆触を構成する画素を集めたグループの形状、例えば、グループの扁平度を調整することによって実現できる。筆触を表す同一の色の画素によって構成されるグループの扁平度を大きくすると、筆触は太くなり、結果として画像のタッチは荒く表示される。同一の色の画素によって構成されるグループの扁平度を小さくすると、小さな筆触を作り出すことができ、結果として、画像のタッチが細かく表示される。   Changing each of the plurality of pieces of image data to a different stroke can be realized by adjusting the shape of the group in which the pixels constituting the stroke are collected, for example, the flatness of the group when changing the image tone. When the flatness of the group composed of pixels of the same color representing the brush stroke is increased, the brush stroke becomes thick, and as a result, the touch of the image is displayed roughly. When the flatness of the group composed of pixels of the same color is reduced, a small brush can be created, and as a result, the touch of the image is displayed finely.

以上詳述した絵画変換アルゴリズムは画像サービスサイト10の制御エリア300の画像変換処理部302に記憶されており、パラメータ群は同じく制御エリア300のパラメータテーブル304に記憶されている。   The picture conversion algorithm described in detail above is stored in the image conversion processing unit 302 of the control area 300 of the image service site 10, and the parameter group is also stored in the parameter table 304 of the control area 300.

図5は絵画変換処理を行うフローチャートである。   FIG. 5 is a flowchart for performing a picture conversion process.

CPU20がワークメモリ30を使用しながらこのフローチャートを実行する。   The CPU 20 executes this flowchart while using the work memory 30.

図5において、まず前処理を行う(ステップS501)。ここは画調の種類にかかわらず共通して実行される処理である。   In FIG. 5, first, preprocessing is performed (step S501). This process is executed in common regardless of the type of image tone.

上述したようなエフェクト処理は各画素に対して行うため、画像データはビットマップ形式である必要がある。そこで、通常はJPEG形式で表現されている画像データをビットマップ形式に変換する。   Since the effect processing as described above is performed on each pixel, the image data needs to be in a bitmap format. Therefore, image data normally expressed in the JPEG format is converted into a bitmap format.

また、アップロードされる画像データのサイズは様々なので、これを表示エリアの画素数、例えば800×600画素にリサイズする。大きい画像は縮小し、小さい画像は拡大する。これは、サイズが決まっていた方がパラメータも固定で済み、処理が効率的だからである。もちろん、後述する本画像の絵画変換の際はアップロードされた画像データのサイズそのままに対して絵画変換を行う。   Also, since the size of the uploaded image data is various, this is resized to the number of pixels in the display area, for example, 800 × 600 pixels. Larger images are reduced and smaller images are enlarged. This is because the parameters are fixed when the size is determined, and the processing is efficient. Of course, at the time of picture conversion of the main image, which will be described later, the picture conversion is performed for the size of the uploaded image data as it is.

次に、ステップS502により、変換対象の写真が顔を含んでいるかどうか判断する。顔は極端な変換をかけると不自然になるので、顔の部分は特にきめ細かく絵画変換処理するためである。   Next, in step S502, it is determined whether the photo to be converted includes a face. This is because the face becomes unnatural when subjected to extreme transformation, so the face portion is particularly finely processed for painting conversion.

この顔検出処理は図6のフローチャートを使用して後述するが、1枚の画像の中でも顔の領域と背景、中央部分と周辺部分では重要度が変わってくるので、重要度マップを作成し、制御エリア300の重要度マップ306に記憶する。   This face detection process will be described later with reference to the flowchart of FIG. 6, but the importance changes in the face area and background, the central part and the peripheral part in one image, so an importance map is created, Stored in the importance map 306 of the control area 300.

続いて、ステップS504で変換したい画調を油絵調、水彩画調、パステル調、色鉛筆画調、・・・等の中から選択する。   In step S504, an image tone to be converted is selected from an oil painting tone, a watercolor painting tone, a pastel tone, a color pencil drawing tone, and the like.

画調が選択されると、それぞれの画調変換アルゴリズムのフローへ移る。例えば油絵調変換であればステップS506へ、水彩画調変換であればステップS510へ進む。それ以外であればその他の画調変換アルゴリズムのフローへと進む(ステップS520)。   When an image tone is selected, the flow goes to the flow of each image tone conversion algorithm. For example, if it is an oil painting tone conversion, the process proceeds to step S506, and if it is a watercolor painting tone conversion, the process proceeds to step S510. Otherwise, the flow proceeds to the flow of other image tone conversion algorithm (step S520).

各アルゴリズムを実行する際、制御エリアのパラメータテーブル304と重要度マップ306を参照する。   When executing each algorithm, the control area parameter table 304 and importance map 306 are referred to.

ここでは、表示画面を見ながら表示画面サイズの画像データを絵画変換し、ステップS522で決定であれば本画像の絵画変換へと進む(ステップS524)。   Here, the image data of the display screen size is converted into a picture while viewing the display screen. If it is determined in step S522, the process proceeds to the picture conversion of the main image (step S524).

他の画調でやり直す場合はステップS504へ戻る。   When redoing with another image tone, the process returns to step S504.

ステップS524では、ステップS522で決定した画調変換アルゴリズムでパラメータテーブルと重要度マップ306を参照しながら本画像に対し画調変換処理を行う(ステップS526、527)。同じ画調であっても画像サイズが異なると適切なパラメータは異なってくるので、ステップS526で使用するパラメータテーブルはステップS508若しくはステップS512で取得したパラメータとは別のものとなる。   In step S524, tone conversion processing is performed on the main image with reference to the parameter table and the importance map 306 using the tone conversion algorithm determined in step S522 (steps S526 and 527). Even if the image tone is the same, the appropriate parameter differs when the image size is different. Therefore, the parameter table used in step S526 is different from the parameter acquired in step S508 or step S512.

ステップS528の後処理では、再びJPEG形式に変換する。   In the post-processing in step S528, the data is converted again into the JPEG format.

次に、図6を参照して顔検出と重要度マップ作成について説明する。   Next, face detection and importance map creation will be described with reference to FIG.

まず、ステップS702で対象画像データの中に顔があるかどうかを認識する。   First, in step S702, it is recognized whether or not there is a face in the target image data.

ここで、顔認識技術は公知であるので詳述はしない。顔を認識して検出することはできても、その輪郭まで正確に抽出することは困難なので、顔の領域を含む楕円形若しくは長方形の領域を作成する(ステップS704)。   Here, since the face recognition technique is known, it will not be described in detail. Although it is possible to recognize and detect the face, it is difficult to accurately extract the contour, so an elliptical or rectangular area including the face area is created (step S704).

図7はこの様子を説明するための図で、sqは顔F1を含む長方形の領域であり、elは顔F1を含む楕円形の領域である。すなわち検出した顔に対応する領域である。   FIG. 7 is a diagram for explaining this situation, where sq is a rectangular region including the face F1, and el is an elliptical region including the face F1. That is, it is an area corresponding to the detected face.

図8は重要度マップを説明するための図である。同図(a)のような画像データから、顔F1e、F2e、F3eを認識すると同図(b)のように顔の領域sq1、sq2、sq3を作成する。   FIG. 8 is a diagram for explaining the importance map. When the faces F1e, F2e, and F3e are recognized from the image data as shown in FIG. 9A, face areas sq1, sq2, and sq3 are created as shown in FIG.

同図(c)は画面上の領域に応じて重要度を与えたものである。まず顔の領域sq1、sq2、sq3の領域E1、E2、E3の重要度を1位とする。次に、楕円el3によって示される中央部の領域E4の重要度を2位とする。更に画面の楕円el4によって示される背景部分の領域E5の重要度を3位とする。最後に、画面の周辺部分の重要度を最下位とする。   FIG. 6C shows the importance given according to the area on the screen. First, the importance of the areas E1, E2, and E3 of the face areas sq1, sq2, and sq3 is set to first. Next, the importance of the central region E4 indicated by the ellipse el3 is set to the second place. Furthermore, the importance of the area E5 of the background portion indicated by the ellipse el4 on the screen is set to the third place. Finally, the importance of the peripheral part of the screen is set to the lowest.

すなわち図8(c)が重要度マップとなる。画像データの各画素を絵画変換処理する際、重要度の高い領域ほどきめ細かく絵画変換し、重要度の低い領域ほど粗く絵画変換する。その結果、重要度が最下位の周辺部分の領域E5はぼやけた感じで絵画変換される。もちろんこれは一例であって、顔の領域E1、E2、E3は顔の雰囲気を崩さないように絵画変換処理をかけないこともできる。   That is, FIG. 8C is an importance map. When picture conversion processing is performed on each pixel of the image data, the more important area is more finely converted, and the less important area is more coarsely converted. As a result, the peripheral area E5 having the lowest importance level is transformed into a picture with a blurred feeling. Of course, this is only an example, and the face regions E1, E2, and E3 may not be subjected to painting conversion processing so as not to destroy the facial atmosphere.

この重要度をαで示すと、αは画像データと同じ画素数を有し、画素Aの変換演算は、
A(RGB)(x,y)=A(RGB)(x,y)*P1*α(x,y)
A(RGB)(x,y)=A(RGB)(x,y)*P2*α(x,y)
A(RGB)(x,y)=A(RGB)(x,y)*Pn*α(x,y)
(ここで(x,y)は2次元の座標)となる。つまりαの値によってパラメータの影響度が変わってくることを意味する。
When this importance is indicated by α, α has the same number of pixels as the image data, and the conversion operation of the pixel A is
A (RGB) (x, y) = A (RGB) (x, y) * P1 * α (x, y)
A (RGB) (x, y) = A (RGB) (x, y) * P2 * α (x, y)
A (RGB) (x, y) = A (RGB) (x, y) * Pn * α (x, y)
(Where (x, y) is a two-dimensional coordinate). In other words, this means that the influence degree of the parameter changes depending on the value of α.

なお、重要度を画像データと同じ画素数設けなくても、E1〜E6の各エリアの内部が一律で同じ重要度とすれば6種類の重要度データを用意してもよい。また、重複するエリアは中間値とするなどもう少し細分化をはかってもよい。   Even if the importance is not set to the same number of pixels as the image data, six types of importance data may be prepared as long as the insides of the areas E1 to E6 are the same importance. Further, the overlapping areas may be further subdivided, for example, to be an intermediate value.

すなわち、重点度マップ306は、画像処理分野において各ピクセルに対し色表現のデータR,G,Bとは別に、透過情報を適宜調整することが可能となる補助データをもつフィルタであると言える。このような重要度マップ306を併用して画調変換処理を行うと、画像データ208の領域E1〜E6を、それぞれ変換強度を変えて画調変換処理することができる。まったく変換強度を変えない(パラメータに影響を与えない)場合も含む。   In other words, the importance level map 306 can be said to be a filter having auxiliary data that allows the transmission information to be appropriately adjusted separately from the color expression data R, G, and B for each pixel in the image processing field. When the tone conversion process is performed using the importance map 306 in combination, the tone conversion process can be performed on the areas E1 to E6 of the image data 208 with different conversion strengths. This includes the case where the conversion intensity is not changed at all (the parameter is not affected).

図9は、顔の領域の輪郭部分の領域(境界領域)を更に細分化したものである。顔の領域の輪郭の中と外で重要度を変えると、絵画変換された画像に段差ができてしまう可能性があるので、同図において顔の領域周辺の重要度をsq>el>el5とする。このようにすることによって、顔の輪郭部分を自然な感じで段階的に絵画変換することができる。   FIG. 9 is a further subdivision of the contour area (boundary area) of the face area. If the importance is changed between inside and outside the outline of the face area, there is a possibility that a step will be formed in the picture converted into the picture. Therefore, in the figure, the importance around the face area is expressed as sq> el> el5. To do. By doing so, it is possible to transform the picture of the contour portion of the face step by step with a natural feeling.

なお、本実施形態の画像表示システムでは、続いて、図10に示すように、端末と画像サービスサイトのサーバーとの間で画像のアップロード、表示、閲覧、ダウンロードを行う。   In the image display system of the present embodiment, as shown in FIG. 10, subsequently, an image is uploaded, displayed, viewed, and downloaded between the terminal and the server of the image service site.

これを簡単に説明すると、まず、会員であるユーザーは自己の端末1から画像サービスサイト10にアクセスする(SB2)。サーバーはユーザーのログインによりユーザーIDを認証し(SC2)、会員であることが確認されるとその会員のページを送信し会員から見られるようになる(SC4)。   This will be briefly described. First, a user who is a member accesses the image service site 10 from his / her terminal 1 (SB2). The server authenticates the user ID by logging in the user (SC2), and when it is confirmed that the user is a member, the server transmits the member's page so that the member can view it (SC4).

会員は自分のページが開かれると、画像のアップロードを行う(SB4)。アップロードされた画像はサーバーの会員エリア100のアップロード画像エリア106に格納される。この画像を絵画変換するために画調の種類を選択すると、図5のフローに従って絵画変換され(SC6)、変換された作品は作品バッファ108に格納される。このまま個人で楽しんでもよいが、他のユーザーに公開したい場合は投稿する(SB8)。投稿された作品は会員エリア100の作品バッファ108から共通エリア200の作品エリア202へ転送され格納される。作品エリア202内の作品には図4で説明したような属性情報も付加される。   When the member opens his / her page, the member uploads an image (SB4). The uploaded image is stored in the upload image area 106 of the member area 100 of the server. When the type of painting tone is selected to convert this image into a painting, the painting is converted according to the flow of FIG. 5 (SC6), and the converted work is stored in the work buffer 108. You can enjoy it as it is, but if you want to share it with other users, post it (SB8). The submitted work is transferred from the work buffer 108 in the member area 100 to the work area 202 in the common area 200 and stored. The attribute information as described in FIG. 4 is also added to the works in the work area 202.

他のユーザーも共通エリア200の作品エリア202に格納されている作品は会員でなくても閲覧することができるので(SA2)、画像サービスサイト10では多数の作品を閲覧しやすいように表示する工夫を行っている(SC8)。   Since other users can view works stored in the work area 202 of the common area 200 even if they are not members (SA2), the image service site 10 displays many works so that they can be easily viewed. (SC8).

作品は、閲覧されただけでもポイントが加算され(SC10)、ユーザーが気に入ってGOODボタンを押すと(SA4)、更にポイントが加算される(SC12)。   Points are added even if the work is just viewed (SC10). If the user likes the GOOD button and presses the GOOD button (SA4), more points are added (SC12).

ユーザーがその作品をダウンロードすると(SA6)、その作品がダウンロード許可対象となっていればダウンロードを許可し(SC14)、更にポイントを加算して(SC16)、ダウンロードを行う(SA8)。   When the user downloads the work (SA6), if the work is a download permission target, the download is permitted (SC14), points are further added (SC16), and the download is performed (SA8).

なお、ここでは詳述しないが、ダウンロードを許可していない画像をダウンロードすると、作品にタグと呼ばれるロゴが付加される。   Although not described in detail here, when an image that is not permitted to be downloaded is downloaded, a logo called a tag is added to the work.

また、本実施形態の画像サービスサイト10では、図11に示すようにしてダウンロードが行われる。ここで、ダウンロードするには会員登録が必要である。
そして、会員は表示画面を見ながら欲しい作品を指定する(ステップS802)。サーバーは会員管理部312によりそのユーザーが有料会員か無料会員かを判断し(ステップS804)、有料会員であればステップS812へ進んで無条件でダウンロードできる。無料会員の場合は、ステップS806で該当作品の属性情報からその作品の評価に相当するポイントを読み出し、併せてダウンロードしようとしている会員の属性情報から保持しているポイントを読み出す(ステップS808)。作品のポイント(価格に相当)と会員の保有しているポイントの差額から支払ポイントを算出し(ステップS810)、充足していればステップS812へ進むが、不足している場合はその作品はダウンロードできないため、ステップS802へ戻り、他の作品の選定を行う。ステップS812で作品の読み出しが許可されれば、作品の作成者にポイントが加算されるとともに、作品の画像IDの属性情報のポイントエリアにポイントが加算される(図10のSC16)。つまり、たくさんダウンロードされるほど作品の評価が上がり、作者である会員のユーザーIDの属性情報のポイントエリアにもポイントが加算されて会員の保有ポイント数が上がる仕組みとなっている。
Further, in the image service site 10 of the present embodiment, downloading is performed as shown in FIG. Here, membership registration is required for downloading.
Then, the member designates a desired work while viewing the display screen (step S802). The server determines whether the user is a paid member or a free member by the member management unit 312 (step S804). If the user is a paid member, the server proceeds to step S812 and can download it unconditionally. In the case of a free member, the point corresponding to the evaluation of the work is read from the attribute information of the corresponding work in step S806, and the retained points are read from the attribute information of the member who is going to download (step S808). Payment points are calculated from the difference between the points (equivalent to the price) of the work and the points held by the member (step S810). If satisfied, the process proceeds to step S812. If the work is insufficient, the work is downloaded. Since it is not possible, the process returns to step S802 to select another work. If reading of the work is permitted in step S812, points are added to the creator of the work and points are added to the point area of the attribute information of the image ID of the work (SC16 in FIG. 10). In other words, as the number of downloads increases, the evaluation of the work increases, and points are added to the point area of the attribute information of the user ID of the member who is the creator, thereby increasing the number of points owned by the member.

更に、画像サービスサイト10はSNS機能を備えているので、他の会員の作品に対するコメントを書き込んだり、それに対する返事を書いたり、好みの似た会員同士でグループを作ったり、特定の作者のファンでグループを作ったりすることができる。このような仕組みは既に既存のSNSでも実施されているので詳述はしないが、前記会員管理部312が会員管理の仕組みとともにSNSの仕組みも実現している。   Furthermore, since the image service site 10 has an SNS function, a comment on another member's work can be written, a reply to it can be written, a group of members with similar preferences can be created, and a fan of a specific author You can create a group. Since such a mechanism is already implemented in an existing SNS, it will not be described in detail, but the member management unit 312 realizes the SNS mechanism together with the member management mechanism.

以上の構成によれば、人物が写った写真画像を絵画調画像に変換する画像変換処理を好適に行うことができる。特に、人物の顔の部分と顔以外の部分とで変換強度を変えることによって、絵画調画像での全体としての不自然さをなくし、人物の顔が自然に見える絵画変換を実現することができるものである。   According to the above configuration, it is possible to suitably perform image conversion processing for converting a photographic image showing a person into a painting-like image. In particular, by changing the conversion intensity between the face part of the person and the part other than the face, it is possible to eliminate the whole unnaturalness in the painting-like image and realize the picture conversion in which the face of the person looks natural. Is.

なお、本発明は上述した実施形態で説明した構成等には限定されず、各部の構成等を適宜変形、変更し得ることは勿論である。   It should be noted that the present invention is not limited to the configuration described in the above-described embodiment, and the configuration of each unit can be modified or changed as appropriate.

例えば、画像データ208から人物の顔に対応する領域を切り出し、顔に対応する領域とその他の領域を別々に画調変換した後、合成するようにしてもよい。   For example, an area corresponding to a person's face may be cut out from the image data 208, and the area corresponding to the face and other areas may be subjected to separate tone conversion and then combined.

以上、この発明の実施形態について説明したが、この発明はこれらに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。   As mentioned above, although embodiment of this invention was described, this invention is not limited to these, The invention described in the claim and its equal range are included.

以下の、本出願の特許請求の範囲に記載された発明を付記する。
(付記)
The invention described in the scope of claims of the present application will be added below.
(Appendix)

請求項1記載の発明では、画像データの中から顔を検出する顔検出手段と、前記顔検出手段が検出した前記顔に対応する領域を決定する領域決定手段と、前記画像データに対し、前記領域検出手段により検出された顔に対応する領域の画像データに第1の画調変換処理を行うとともに、前記顔に対応する領域以外の画像データに第2の画調変換処理を行う画調変換処理手段とを備えたことを特徴とする。これにより、例えば顔に対応する領域と他の領域とで異なる変換強度で画調変換することができ、顔を含む写真において自然な画調変換をすることができる。   According to the first aspect of the present invention, a face detection unit that detects a face from image data, a region determination unit that determines a region corresponding to the face detected by the face detection unit, and the image data Image tone conversion in which the first image tone conversion process is performed on the image data of the area corresponding to the face detected by the area detection means, and the second image tone conversion process is performed on the image data other than the area corresponding to the face. And a processing means. Thereby, for example, it is possible to perform the tone conversion with different conversion strengths in the region corresponding to the face and other regions, and it is possible to perform natural tone conversion in a photograph including the face.

請求項2記載の発明では、請求項1において、前記領域決定手段により決定される顔に対応する領域は、前記顔を含む長方形若しくは楕円形の領域であることを特徴とする。これにより、顔の輪郭が正確に抽出できなくても顔に対応する領域を画調変換することができる。   According to a second aspect of the present invention, in the first aspect, the region corresponding to the face determined by the region determining means is a rectangular or elliptical region including the face. Thereby, even if the outline of the face cannot be accurately extracted, it is possible to perform the tone conversion of the area corresponding to the face.

請求項3記載の発明では、請求項1または2いずれかにおいて、前記領域決定手段により決定される顔に対応する領域は、境界領域を含むことを特徴とする。これにより、顔の境界部分の内側と外側に段差ができることを避けることができる。   According to a third aspect of the present invention, in any one of the first and second aspects, the region corresponding to the face determined by the region determining means includes a boundary region. Thereby, it can be avoided that a step is formed on the inside and outside of the boundary portion of the face.

請求項4記載の発明では、請求項3において、前記画調変換手段は、前記境界領域の画像データに対し第3の画調変換処理を行うことを特徴とする。これにより、顔の輪郭部分について段階的に自然な画調変換を行うことができる。   According to a fourth aspect of the present invention, in the third aspect, the image tone converting means performs a third image tone converting process on the image data in the boundary area. This makes it possible to perform natural tone conversion in a stepwise manner on the face contour portion.

請求項5記載の発明では、請求項1または2いずれかにおいて、前記画調変換手段の第1の画調変換処理と第2の画調変換処理は、画調変換の変換強度が異なることを特徴とする。これにより、特に顔に対応する領域と他の領域を同じ画調に変換し、変換強度だけを変えることができる。   According to a fifth aspect of the present invention, in any one of the first and second aspects, the first tone conversion processing and the second tone conversion processing of the tone conversion means are different in conversion strength of the tone conversion. Features. As a result, the area corresponding to the face and other areas can be converted to the same image tone, and only the conversion intensity can be changed.

請求項6記載の発明では、請求項4において、前記画調変換手段の第1の画調変換処理と第2の画調変換処理と第3の画調変換処理は、画調変換の変換強度がいずれも異なることを特徴とする。これにより、第1の画調変換処理と第2の画調変換処理と第3の画調変換処理が同じ画調変換処理であり、変換強度だけ変えることができる。   According to a sixth aspect of the present invention, in the fourth aspect, the first tone conversion processing, the second tone conversion processing, and the third tone conversion processing of the tone conversion means are: Are different from each other. Thus, the first image tone conversion processing, the second image tone conversion processing, and the third image tone conversion processing are the same image tone conversion processing, and only the conversion intensity can be changed.

請求項7記載の発明では、画像データの中から顔を検出し、前記検出した顔の領域に対応する領域を決定し、前記検出された領域の画像データに第1の画調変換処理を行うとともに、前記領域以外の画像データに第2の画調変換処理を行う方法を得ることができる。   According to the seventh aspect of the present invention, a face is detected from the image data, a region corresponding to the detected face region is determined, and a first tone conversion process is performed on the image data of the detected region. At the same time, it is possible to obtain a method for performing the second image tone conversion process on the image data other than the area.

請求項8記載の発明では、画像データを画調変換処理する画像処理装置のコンピュータを、前記画像データの中から顔を検出する顔検出手段、前記顔検出手段で検出した前記顔に対応する領域を決定する領域決定手段、前記領域検出手段により検出された領域の画像データに第1の画調変換処理を行うとともに、前記領域以外の画像データに第2の画調変換処理を行う画調変換処理手段、として機能させるプログラムを得ることができる。     According to an eighth aspect of the present invention, a computer of an image processing apparatus that performs tone conversion processing of image data includes a face detection unit that detects a face from the image data, and a region corresponding to the face detected by the face detection unit. Region determining means for determining image quality, and image processing for performing a first image tone conversion process on the image data of the region detected by the region detection unit and performing a second image tone conversion process on image data other than the region A program that functions as processing means can be obtained.

1 端末
10 画像サービスサイト
20 CPU
30 ワークメモリ
100 会員エリア
102 ユーザーID
104 属性情報
200 共通エリア
202 作品エリア
204 画像ID
206 属性情報
208 画像データ
300 制御エリア
302 絵画変換処理部
304 パラメータテーブル
306 重要度マップ
308 表示制御部
314 顔検出処理部
316 顔検出部
317 顔の領域決定手段
318 画調変換処理手段
310 評価制御部
500 インターネット
1 Terminal 10 Image Service Site 20 CPU
30 Work memory 100 Member area 102 User ID
104 Attribute information 200 Common area 202 Work area 204 Image ID
206 Attribute Information 208 Image Data 300 Control Area 302 Painting Conversion Processing Unit 304 Parameter Table 306 Importance Map 308 Display Control Unit 314 Face Detection Processing Unit 316 Face Detection Unit 317 Face Area Determination Unit 318 Tone Conversion Processing Unit 310 Evaluation Control Unit 500 Internet

Claims (5)

顔を含む画像データを複数種類の画調に変換可能な画像処理装置において、
前記複数種類の画調の中から1つの種類を選択する選択手段と、
画像データの中から顔を検出する顔検出手段と、
前記顔検出手段が検出した前記顔に対応する領域(sq)内側と外側の境界領域(el、el5)とを決定する領域決定手段と、
前記画像データを前記選択手段により選択された種類の画調に変換するに当たり、
前記領域決定手段により決定された顔に対応する領域(sq)の画像データにパラメータに応じて第1の画調変換処理を行い、
前記領域決定手段により決定された前記内側の境界領域(el)の画像データに対しパラメータに応じて第2の画調変換処理を行い、
前記領域決定手段により決定された前記外側の境界領域(el5)の画像データにパラメータに応じて第3の画調変換処理を行い、
前記顔に対応する領域(sq)と前記境界領域(el、el5)以外の画像データにパラメータに応じて第4の画調変換処理を行う
画調変換処理手段と、を備え、
前記画調変換処理手段は、前記画像データの複数の画素のグループにより筆触を形成する手段を含むとともに、
前記画像データの画素をA(RGB)(x、y)で表し、(ここで(x,y)は2次元の座標、(RGB)は画素AのRGBの値)
前記パラメータをPで代表し、
前記パラメータの影響度をαで代表したとき、
前記顔に対応する領域(sq)の画像データに
A(RGB)(x,y)=A(RGB)(x,y)*P*α1(x,y)
で表される処理を実行し、
前記内側の境界領域の画像データに
A(RGB)(x,y)=A(RGB)(x,y)*P*α2(x,y)
で表される処理を実行し、
前記外側の境界領域の画像データに
A(RGB)(x,y)=A(RGB)(x,y)*P*α3(x,y)
で表される処理を実行し、且つ、
α1>α2>α3
であることを特徴とする画像処理装置。
In an image processing apparatus capable of converting image data including a face into a plurality of types of image tone,
Selecting means for selecting one type from the plurality of types of image tone;
Face detection means for detecting a face from image data;
Area determining means for determining an area (sq) corresponding to the face detected by the face detecting means and inner and outer boundary areas (el, el5) ;
In converting the image data into the type of image tone selected by the selection means,
A first image tone conversion process is performed on the image data of the area (sq) corresponding to the face determined by the area determining means according to the parameter,
A second image tone conversion process is performed on the image data of the inner boundary area (el) determined by the area determination means according to a parameter,
A third image tone conversion process is performed on the image data of the outer boundary area (el5) determined by the area determination means according to a parameter,
A tone conversion processing unit that performs a fourth tone conversion process on image data other than the region (sq) corresponding to the face and the boundary region (el, el5) according to a parameter;
The image tone conversion processing means includes means for forming a brushstroke by a group of a plurality of pixels of the image data,
The pixel of the image data is represented by A (RGB) (x, y), where (x, y) is a two-dimensional coordinate and (RGB) is the RGB value of the pixel A)
The parameter is represented by P,
When the influence of the parameter is represented by α,
In the image data of the area (sq) corresponding to the face, A (RGB) (x, y) = A (RGB) (x, y) * P * α1 (x, y)
The process represented by
In the image data of the inner boundary area, A (RGB) (x, y) = A (RGB) (x, y) * P * α2 (x, y)
The process represented by
The outside of the image data of the boundary area A (RGB) (x, y ) = A (RGB) (x, y) * P * α3 (x, y)
And the process represented by
α1>α2> α3
An image processing apparatus characterized by the above.
該画像処理装置はインターネットを介して複数の端末と接続される画像サービスサイトを含み、
更に前記画像サービスサイトは前記画調変換処理手段と前記パラメータを記憶するパラメータテーブルを含み、
前記画調変換処理手段は、前記端末から前記画像サービスサイトにアップロードされた画像データを選択された種類の画調に変換することを特徴とする請求項1記載の画像処理装置。
The image processing apparatus includes an image service site connected to a plurality of terminals via the Internet,
Further, the image service site comprises a parameter table for storing the said image-style conversion process unit parameter,
2. The image processing apparatus according to claim 1, wherein the image tone conversion processing unit converts image data uploaded from the terminal to the image service site into a selected type of image tone.
前記画像サービスサイトは、ソーシャル・ネットワーク・サービス機能を有し、会員は画像データを該画像サービスサイトにアップロードして、前記画調変換処理手段により該画像データを選択された種類の画調に変換するものであり、該変換された画像データは他の会員に閲覧可能に公開され、所定の条件を満たした他の会員が前記変換された画像データをダウンロード可能に構成されていることを特徴とする請求項2記載の画像処理装置。 The image service site has a social network service function, and a member uploads image data to the image service site and converts the image data into a selected type of image tone by the image tone conversion processing means. The converted image data is disclosed so that it can be viewed by other members, and the other members satisfying a predetermined condition can download the converted image data. The image processing apparatus according to claim 2. 顔を含む画像データを複数種類の画調に変換可能な画像処理方法において、
前記複数種類の画調の中から1つの種類を選択する選択工程と、
画像データの中から顔を検出する顔検出工程と、
前記検出した前記顔に対応する領域(sq)と内側と外側の境界領域(el、el5)とを決定する領域決定工程と、
前記画像データを前記選択工程により選択された種類の画調に変換するに当たり、
前記領域決定工程により決定された顔に対応する領域(sq)の画像データにパラメータに応じて第1の画調変換処理を行い、
前記領域決定工程により決定された前記内側の境界領域(el)の画像データ対しパラメータに応じて第2の画調変換処理を行い、
前記領域決定工程により決定された前記外側の境界領域(el5)の画像データにパラメータに応じて第3の画調変換処理を行い、
前記顔に対応する領域(sq)と前記境界領域(el、el5)以外の画像データにパラメータに応じて第4の画調変換処理を行う画調変換処理工程と、
を含み、
前記画調変換処理工程は、前記画像データの複数の画素のグループにより筆触を形成する工程を含むとともに、
前記画像データの画素をA(RGB)(x、y)で表し、(ここで(x,y)は2次元の座標、(RGB)は画素AのRGBの値)
前記パラメータをPで代表し、
前記パラメータの影響度をαで代表したとき、
前記顔に対応する領域の画像データに
A(RGB)(x,y)=A(RGB)(x,y)*P*α1(x,y)
で表される処理を実行し、
前記内側の境界領域の画像データに
A(RGB)(x,y)=A(RGB)(x,y)*P*α2(x,y)
で表される処理を実行し、
前記外側の境界領域の画像データに
A(RGB)(x,y)=A(RGB)(x,y)*P*α3(x,y)
で表される処理を実行し、且つ、
α1>α2>α3
であることを特徴とする画像処理方法。
In an image processing method capable of converting image data including a face into a plurality of types of image tone,
A selection step of selecting one type from the plurality of types of image tone;
A face detection process for detecting a face from image data;
A region determining step for determining a region (sq) corresponding to the detected face and inner and outer boundary regions (el, el5);
In converting the image data into the type of image selected in the selection step ,
A first image tone conversion process is performed on the image data of the region (sq) corresponding to the face determined by the region determination step according to the parameter,
Performs second image tone conversion processing in accordance with the against parameter to the image data of said region determining step said inner boundary region determined by (el),
A third image tone conversion process is performed on the image data of the outer boundary area (el5) determined by the area determination step according to a parameter,
A tone conversion processing step of performing a fourth tone conversion process on image data other than the region (sq) corresponding to the face and the boundary region (el, el5) according to a parameter;
Including
The image tone conversion processing step includes a step of forming a brushstroke by a group of a plurality of pixels of the image data,
The pixel of the image data is represented by A (RGB) (x, y), where (x, y) is a two-dimensional coordinate and (RGB) is the RGB value of the pixel A)
The parameter is represented by P,
When the influence of the parameter is represented by α,
A (RGB) (x, y) = A (RGB) (x, y) * P * α1 (x, y) in the image data of the area corresponding to the face
The process represented by
In the image data of the inner boundary area, A (RGB) (x, y) = A (RGB) (x, y) * P * α2 (x, y)
The process represented by
In the image data of the outer boundary area, A (RGB) (x, y) = A (RGB) (x, y) * P * α3 (x, y)
And the process represented by
α1>α2> α3
An image processing method characterized by the above.
顔を含む画像データを複数種類の画調に変換可能な画像処理装置のコンピュータを、
前記複数種類の画調の中から1つの種類を選択する選択手段と、
画像データの中から顔を検出する顔検出手段と、
前記顔検出手段が検出した前記顔に対応する領域(sq)内側と外側の境界領域(el、el5)とを決定する領域決定手段と、して機能させるとともに、
前記画像データを前記選択手段により選択された種類の画調に変換するに当たり、
前記領域決定手段により決定された顔に対応する領域(sq)の画像データにパラメータに応じて第1の画調変換処理を行い、
前記領域決定手段により決定された前記内側の境界領域(el)の画像データに対しパラメータに応じて第2の画調変換処理を行い、
前記領域決定手段により決定された前記外側の境界領域(el5)の画像データにパラメータに応じて第3の画調変換処理を行い、
前記顔に対応する領域(sq)と前記境界領域(el、el5)以外の画像データにパラメータに応じて第4の画調変換処理を行う画調変換処理手段と、
して機能させ、
前記画調変換処理手段は、前記画像データの複数の画素のグループにより筆触を形成する手段を含むとともに、
前記画像データの画素をA(RGB)(x、y)で表し、(ここで(x,y)は2次元の座標、(RGB)は画素AのRGBの値)
前記パラメータをPで代表し、
前記パラメータの影響度をαで代表したとき、
前記顔に対応する領域(sq)の画像データに
A(RGB)(x,y)=A(RGB)(x,y)*P*α1(x,y)
で表される処理を実行し、
前記内側の境界領域の画像データに
A(RGB)(x,y)=A(RGB)(x,y)*P*α2(x,y)
で表される処理を実行し、
前記外側の境界領域の画像データに
A(RGB)(x,y)=A(RGB)(x,y)*P*α3(x,y)
で表される処理を実行し、且つ、
α1>α2>α3
であることを特徴とする画像処理プログラム。
An image processing apparatus computer capable of converting image data including a face into a plurality of types of image tone,
Selecting means for selecting one type from the plurality of types of image tone;
Face detection means for detecting a face from image data;
And functioning as area determining means for determining the area (sq) corresponding to the face detected by the face detecting means and inner and outer boundary areas (el, el5) ,
In converting the image data into the type of image tone selected by the selection means,
A first image tone conversion process is performed on the image data of the area (sq) corresponding to the face determined by the area determining means according to the parameter,
A second image tone conversion process is performed on the image data of the inner boundary area (el) determined by the area determination means according to a parameter,
A third image tone conversion process is performed on the image data of the outer boundary area (el5) determined by the area determination means according to a parameter,
A tone conversion processing means for performing a fourth tone conversion process on image data other than the region (sq) corresponding to the face and the boundary region (el, el5) according to a parameter;
To function,
The image tone conversion processing means includes means for forming a brushstroke by a group of a plurality of pixels of the image data,
The pixel of the image data is represented by A (RGB) (x, y), where (x, y) is a two-dimensional coordinate and (RGB) is the RGB value of the pixel A)
The parameter is represented by P,
When the influence of the parameter is represented by α,
In the image data of the area (sq) corresponding to the face, A (RGB) (x, y) = A (RGB) (x, y) * P * α1 (x, y)
The process represented by
In the image data of the inner boundary area, A (RGB) (x, y) = A (RGB) (x, y) * P * α2 (x, y)
The process represented by
The outside of the image data of the boundary area A (RGB) (x, y ) = A (RGB) (x, y) * P * α3 (x, y)
And the process represented by
α1>α2> α3
An image processing program.
JP2011078900A 2011-03-31 2011-03-31 Image processing apparatus, image processing method, and program Expired - Fee Related JP5532004B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011078900A JP5532004B2 (en) 2011-03-31 2011-03-31 Image processing apparatus, image processing method, and program
CN2012100860598A CN102737369A (en) 2011-03-31 2012-03-28 Image processing apparatus, image processing method, and storage medium
US13/435,339 US20120250997A1 (en) 2011-03-31 2012-03-30 Image processing apparatus, image processing method, and storage medium
EP12162314A EP2506552A1 (en) 2011-03-31 2012-03-30 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011078900A JP5532004B2 (en) 2011-03-31 2011-03-31 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2012215927A JP2012215927A (en) 2012-11-08
JP5532004B2 true JP5532004B2 (en) 2014-06-25

Family

ID=47268663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011078900A Expired - Fee Related JP5532004B2 (en) 2011-03-31 2011-03-31 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5532004B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024024727A1 (en) * 2022-07-26 2024-02-01 株式会社Preferred Networks Image processing device, image display device, image processing method, image display method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024845A (en) * 2000-07-03 2002-01-25 Soriton Syst:Kk Digital picture system
JP3656570B2 (en) * 2001-06-18 2005-06-08 セイコーエプソン株式会社 Apparatus, method and computer program for performing image processing
JP2008282204A (en) * 2007-05-10 2008-11-20 Seiko Epson Corp Image processor and image processing method
JP5487610B2 (en) * 2008-12-18 2014-05-07 ソニー株式会社 Image processing apparatus and method, and program

Also Published As

Publication number Publication date
JP2012215927A (en) 2012-11-08

Similar Documents

Publication Publication Date Title
US9098534B2 (en) Image display system, image display method, social network service system, and computer-readable medium
JP5408208B2 (en) Image display system, image display apparatus and program
TW200402231A (en) Method and system for enhancing portrait images
JP2004265406A (en) Method and system for improving portrait image processed in batch mode
JP5594282B2 (en) Image processing device
JP5434582B2 (en) Image processing apparatus and image processing program
US20120250997A1 (en) Image processing apparatus, image processing method, and storage medium
US9092889B2 (en) Image processing apparatus, image processing method, and program storage medium
JP5896204B2 (en) Image processing apparatus and program
JP5532004B2 (en) Image processing apparatus, image processing method, and program
JP2013131077A (en) Image processor, image processing method and program and image processing system
JP4359662B2 (en) Color image exposure compensation method
Gao et al. PencilArt: a chromatic penciling style generation framework
JP5652508B2 (en) Image display system, image display apparatus and program
JP5050141B2 (en) Color image exposure evaluation method
JP4507673B2 (en) Image processing apparatus, image processing method, and program
JP5375944B2 (en) Image display control apparatus, image display system, image display method, and program
JP5768850B2 (en) Image display control apparatus, image display system, image display method, and program
JP2006092127A (en) Image processor, image processing method and program
JP5742919B2 (en) Image processing apparatus, image processing program, and image processing method
US20160197981A1 (en) Picture conversion sns system and method, apparatus, and terminal

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130416

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130806

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140407

R150 Certificate of patent or registration of utility model

Ref document number: 5532004

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees