JP6371521B2 - Image processing method, image processing program, image processing apparatus, and industrial product - Google Patents

Image processing method, image processing program, image processing apparatus, and industrial product Download PDF

Info

Publication number
JP6371521B2
JP6371521B2 JP2013269898A JP2013269898A JP6371521B2 JP 6371521 B2 JP6371521 B2 JP 6371521B2 JP 2013269898 A JP2013269898 A JP 2013269898A JP 2013269898 A JP2013269898 A JP 2013269898A JP 6371521 B2 JP6371521 B2 JP 6371521B2
Authority
JP
Japan
Prior art keywords
image
area
processing unit
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013269898A
Other languages
Japanese (ja)
Other versions
JP2015125609A (en
Inventor
倉地 育夫
育夫 倉地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KENSYU & CO., LTD.
Original Assignee
KENSYU & CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KENSYU & CO., LTD. filed Critical KENSYU & CO., LTD.
Priority to JP2013269898A priority Critical patent/JP6371521B2/en
Publication of JP2015125609A publication Critical patent/JP2015125609A/en
Application granted granted Critical
Publication of JP6371521B2 publication Critical patent/JP6371521B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理方法、画像処理プログラム、画像処理装置及び工業製品に関するものである。   The present invention relates to an image processing method, an image processing program, an image processing apparatus, and an industrial product.

衣類や日用品、雑貨、その他工業製品には、装飾のために色とりどりのデザインが施されている。デザインの多くは、専門の能力を有するデザイナーの手により独自の新しいデザインが提案され、商品の機能性と同様に消費者の購買意欲を高めている。消費者の目に触れる商品のデザインを考案する方法については様々であるが、独自性が高い優れたデザインは、才能豊かなデザイナーにより生み出されている。デザインの考案方法として、地球上に存在する物体(オブジェクト)を基にそれを美的に加工しデザインとして用いる方法がある。すなわち、身の回りに存在するオブジェクト、例えば生物や風景を題材にしたデザインでは、才能豊かなデザイナーによりデフォルメされ、美しく加工されたデザインが、商品の装飾として使用されている。昆虫などの生物でもデフォルメされてデザインとして成功している例が存在し、森英恵氏のデザインによる蝶をモチーフにした作品の数々は、ハンカチーフからバッグやドレスまで主に婦人用商品に多く使用されている。また雪の顕微鏡写真から考案されたデザインは、企業のマークにまでなっている例も存在する。これらは、オブジェクトの姿(イメージ)を残し、デザインからそのイメージを伝え、美しさをより際立たせるという手法を使っている。例えば蝶の中には醜い蛾も存在するが、醜いオブジェクトは森英恵氏のデザインに使われていない。美しい蝶を題材に、実物より美しいデザインを生み出して成功している。このように実際に存在するオブジェクトをモデルにして、オブジェクトのイメージを残して加工することで、独自性が高く美しいデザインが専門のデザイナーの手により創り出されている。   Clothes, daily necessities, sundries, and other industrial products are decorated with colorful designs for decoration. Many of the designs have their own new designs proposed by designers with specialized abilities, increasing consumer appetite as well as product functionality. There are many ways to devise designs for products that consumers see, but highly unique designs are created by talented designers. As a design method, there is a method of aesthetically processing an object (object) existing on the earth and using it as a design. In other words, in the design of objects around us, such as living things and landscapes, designs that are deformed and processed beautifully by talented designers are used as decorations for products. There are examples of creatures such as insects that have been successfully deformed and designed, and many of the works with butterflies designed by Hidee Mori are mainly used for women's products, from handkerchiefs to bags and dresses. ing. There are also examples of designs devised from snow micrographs that have become corporate marks. These use a technique that leaves the appearance of the object (image), conveys the image from the design, and makes the beauty stand out more. For example, there are ugly wings in butterflies, but ugly objects are not used in the design of Mr. Hidee Mori. Using beautiful butterflies as a theme, he has succeeded in creating a more beautiful design than the real thing. In this way, by using an object that actually exists as a model and processing it while leaving the image of the object, a unique and beautiful design has been created by a professional designer.

しかしながら、工業製品等の物品の装飾のために独自性が高く美しいデザインを創り出すことができるのは、専門教育を受けた者等、高いデザイン能力を有する者に殆ど限られているのが表状である。したがって、これらに該当しないような例えばデザインの初心者でも、独自性が高く美しいデザインを簡単に創り出すことができるような技術が望まれている。   However, the ability to create unique and beautiful designs for the decoration of articles such as industrial products is almost limited to those with high design ability, such as those who have received specialized education. It is. Therefore, there is a demand for a technique that can easily create a unique and beautiful design even for a design beginner who does not fall under these categories.

かかる点に鑑みてなされた本発明の課題は、ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像を創り出すことを可能にする、画像処理方法、画像処理プログラム及び画像処理装置を提供すること、並びに、誰でも簡単に、独自性が高く美しいデザインが施されてなる工業製品を提供することにある。   An object of the present invention made in view of the above points is to provide an image processing method, an image processing program, and an image processing method that enable anyone to create a unique and beautiful design image regardless of the high design ability of the individual user. An object is to provide an image processing apparatus and to provide an industrial product in which anyone can easily perform a unique and beautiful design.

本発明の画像処理方法は、
オブジェクトの画像データを記憶する記憶部と、入力部と、表示部と、処理部と、を備えた画像処理装置を用いて行う、画像処理方法であって、
前記処理部が、前記表示部に、前記オブジェクトを画像データとして表示させる画像データ表示ステップと、
前記入力部の操作によって、前記表示部に表示された前記オブジェクトの輪郭から内側の領域が選択領域として選択されると、前記処理部が所定の判断基準に従って前記選択領域の画像が前記オブジェクトの特徴を捨象した特徴捨象画像であると判断した場合に、前記処理部が、前記選択領域を要素データとして抽出する要素データ抽出ステップと、
を含むことを特徴とする。
この構成によれば、ユーザは、高いデザイン能力を要するデフォルメ加工をすることなく、要素データをそのまま用いるだけで、独自性が高く美しいデザイン画像を簡単に創出することができる。すなわち、ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像を創り出すことが可能になる。
The image processing method of the present invention includes:
An image processing method performed using an image processing apparatus including a storage unit that stores image data of an object, an input unit, a display unit, and a processing unit,
An image data display step in which the processing unit causes the display unit to display the object as image data;
When a region inside the outline of the object displayed on the display unit is selected as a selection region by the operation of the input unit, the processing unit displays an image of the selection region according to a predetermined determination criterion. Element data extraction step for extracting the selected area as element data when it is determined that the image is a feature-separated image.
It is characterized by including.
According to this configuration, the user can easily create a unique and beautiful design image simply by using the element data as it is without performing deformation processing requiring high design ability. In other words, anyone can create a unique design and beautiful design image regardless of the user's individual design ability.

本発明の画像処理方法では、前記要素データ抽出ステップにおいて、前記処理部は、前記選択領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似である場合に、前記選択領域の画像が前記特徴捨象画像であると判断することが好ましい。
この構成によれば、デザイン画像を観た者によってオブジェクトが想起又は特定されにくいような要素データを、確実に抽出することができるので、ユーザは、より独自性が高く美しいデザイン画像を創出することができる。
In the image processing method of the present invention, in the element data extraction step, the processing unit is configured such that the image of the selection area is the feature when the outline shape of the selection area is dissimilar to the outline shape of the object. It is preferable to determine that the image is a discarded image.
According to this configuration, element data that makes it difficult for the person who viewed the design image to recall or identify the object can be reliably extracted, so that the user can create a more unique and beautiful design image. Can do.

本発明の画像処理方法では、前記要素データ抽出ステップにおいて、前記処理部は、前記選択領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似であり、かつ、前記選択領域の面積が前記オブジェクトの面積の0.001〜90%である場合に、前記選択領域の画像が前記特徴捨象画像であると判断することが好ましい。
この構成によれば、デザイン画像を観た者によってオブジェクトがより想起又は特定されにくいような要素データを、確実に抽出することができるとともに、要素データに十分な量のデザイン素材を含めることができるので、ユーザは、より独自性が高く美しいデザイン画像を創出することができる。
In the image processing method of the present invention, in the element data extraction step, the processing unit is configured such that a contour shape of the selection region is dissimilar to a contour shape of the object, and an area of the selection region is the object. When the area is 0.001 to 90% of the area, it is preferable to determine that the image of the selected region is the feature-abstracted image.
According to this configuration, it is possible to reliably extract element data that makes it difficult for the person who viewed the design image to recall or specify the object, and to include a sufficient amount of design material in the element data. Therefore, the user can create a unique design and a beautiful design image.

本発明の画像処理方法は、
前記要素データ抽出ステップの前に、前記表示部に表示された前記オブジェクトの輪郭から内側の領域を、前記画像データに基づき特定される前記オブジェクトの3次元形状に基づいて、複数の部分領域に区分けする区分けステップをさらに含み、
前記要素データ抽出ステップにおいて、前記処理部は、前記選択領域がいずれか1つの前記部分領域の少なくとも一部であり、かつ、前記選択領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似である場合に、前記選択領域の画像が前記特徴捨象画像であると判断することが好ましい。
この構成によれば、デザイン画像を観た者によってオブジェクトがより想起又は特定されにくいような要素データを、確実に抽出することができることができる。
The image processing method of the present invention includes:
Prior to the element data extraction step, a region inside the outline of the object displayed on the display unit is divided into a plurality of partial regions based on the three-dimensional shape of the object specified based on the image data. Further comprising a partitioning step,
In the element data extraction step, the processing unit is configured such that the selection area is at least a part of any one of the partial areas, and the outline shape of the selection area is dissimilar to the outline shape of the object. In some cases, it is preferable to determine that the image of the selected region is the feature-rejected image.
According to this configuration, it is possible to reliably extract element data that makes it difficult for a person who viewed a design image to recall or specify an object.

本発明の画像処理方法は、
前記要素データ抽出ステップの前に、前記表示部に表示された前記オブジェクトの輪郭から内側の領域を、前記画像データに基づき特定される前記オブジェクトの3次元形状に基づいて複数の部分領域に区分けする区分けステップをさらに含み、
前記要素データ抽出ステップにおいて、前記処理部は、前記選択領域がいずれか1つの前記部分領域の少なくとも一部であり、前記選択領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似であり、かつ、前記選択領域の面積が前記オブジェクトの面積の0.001〜90%である場合に、前記選択領域の画像が前記特徴捨象画像であると判断することが好ましい。
この構成によれば、デザイン画像を観た者によってオブジェクトがより想起又は特定されにくいような要素データを、確実に抽出することができるとともに、要素データに十分な量のデザイン素材を含めることができるので、ユーザは、より独自性が高く美しいデザイン画像を創出することができる。
The image processing method of the present invention includes:
Prior to the element data extraction step, a region inside the outline of the object displayed on the display unit is divided into a plurality of partial regions based on the three-dimensional shape of the object specified based on the image data. Further comprising a segmentation step,
In the element data extraction step, the processing unit is configured such that the selection area is at least a part of any one of the partial areas, and the outline shape of the selection area is dissimilar to the outline shape of the object, And when the area of the said selection area is 0.001-90% of the area of the said object, it is preferable to judge that the image of the said selection area is the said feature removal image.
According to this configuration, it is possible to reliably extract element data that makes it difficult for the person who viewed the design image to recall or specify the object, and to include a sufficient amount of design material in the element data. Therefore, the user can create a unique design and a beautiful design image.

本発明の他の画像処理方法は、
オブジェクトの画像データを記憶する記憶部と、入力部と、表示部と、処理部と、を備えた画像処理装置を用いて行う、画像処理方法であって、
前記処理部が、前記表示部に、前記オブジェクトを画像データとして表示させる画像データ表示ステップと、
前記処理部が、前記表示部に、前記表示部に表示された前記オブジェクトの輪郭から内側の領域であって、前記処理部が所定の判断基準に従って該領域の画像が前記オブジェクトの特徴を捨象した特徴捨象画像であると判断した1以上の領域を、選択可能領域として表示させる、選択可能領域表示ステップと、
前記入力部の操作によっていずれか一つ以上の前記選択可能領域が選択領域として選択されると、前記処理部が、前記選択領域を要素データとして抽出する要素データ抽出ステップと、
を含むことを特徴とする。
この構成によれば、ユーザは、高いデザイン能力を要するデフォルメ加工をすることなく、要素データをそのまま用いるだけで、独自性が高く美しいデザイン画像を簡単に創出することができる。すなわち、ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像を創り出すことが可能になる。さらに、ユーザの操作を簡単にすることができる。
Other image processing methods of the present invention include:
An image processing method performed using an image processing apparatus including a storage unit that stores image data of an object, an input unit, a display unit, and a processing unit,
An image data display step in which the processing unit causes the display unit to display the object as image data;
The processing unit is an area inside the outline of the object displayed on the display unit on the display unit, and the processing unit discards the characteristics of the object according to a predetermined criterion A selectable area display step for displaying one or more areas determined to be feature-absent images as selectable areas;
When any one or more of the selectable areas are selected as a selection area by an operation of the input unit, the processing unit extracts an element data extraction step of extracting the selection area as element data;
It is characterized by including.
According to this configuration, the user can easily create a unique and beautiful design image simply by using the element data as it is without performing deformation processing requiring high design ability. In other words, anyone can create a unique design and beautiful design image regardless of the user's individual design ability. Furthermore, the user's operation can be simplified.

本発明の他の画像処理方法では、前記選択可能領域表示ステップにおいて、前記処理部は、前記領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似であり、かつ、前記領域の面積が前記オブジェクトの面積の0.001〜90%である場合に、前記領域の画像が前記特徴捨象画像であると判断することが好ましい。
この構成によれば、デザイン画像を観た者によってオブジェクトが想起又は特定されにくいような要素データを、確実に抽出することができるとともに、要素データに十分な量のデザイン素材を含めることができるので、ユーザは、より独自性が高く美しいデザイン画像を創出することができる。
In another image processing method of the present invention, in the selectable region display step, the processing unit has a contour shape of the region that is not similar to a contour shape of the object, and the area of the region is When the area is 0.001 to 90% of the area of the object, it is preferable to determine that the image of the region is the feature image.
According to this configuration, it is possible to reliably extract element data that makes it difficult for the person who viewed the design image to recall or specify the object, and it is possible to include a sufficient amount of design material in the element data. The user can create a design image that is more unique and beautiful.

本発明の画像処理方法又は本発明の他の画像処理方法において、前記処理部が、前記入力部の操作に従って、前記要素データを用いて他の画像データを作成する画像データ作成ステップをさらに含むことが好ましい。
この構成によれば、要素データの画像をそのままデザイン画像として用いる場合と比べて、デザイン画像を観た者によってオブジェクトがさらに想起又は特定されにくいようなデザイン画像を創り出すことができる。
In the image processing method of the present invention or another image processing method of the present invention, the processing unit further includes an image data creation step of creating other image data using the element data in accordance with an operation of the input unit. Is preferred.
According to this configuration, it is possible to create a design image in which an object is less likely to be recalled or specified by a person who viewed the design image, compared to a case where the element data image is used as it is as a design image.

本発明の画像処理方法又は本発明の他の画像処理方法における、前記画像データ作成ステップにおいて、前記処理部は、前記要素データとして抽出された前記選択領域の画像を、1000倍までの範囲で拡大させ、または、0.01倍までの範囲で縮小させた画像のデータを用いて前記他の画像データを作成することが好ましい。
この構成によれば、要素データの画像をそのままデザイン画像として用いる場合と比べて、デザイン画像を観た者によってオブジェクトがさらに想起又は特定されにくいようなデザイン画像を創り出すことができる。
In the image data creation step in the image processing method of the present invention or another image processing method of the present invention, the processing unit enlarges the image of the selected area extracted as the element data up to 1000 times. It is preferable that the other image data is created using image data reduced or reduced to a range of up to 0.01 times.
According to this configuration, it is possible to create a design image in which an object is less likely to be recalled or specified by a person who viewed the design image, compared to a case where the element data image is used as it is as a design image.

本発明の画像処理プログラムは、
オブジェクトの画像データを記憶する記憶部と、入力部と、表示部と、処理部と、を備えた画像処理装置における、前記処理部に実行させる、画像処理プログラムであって、
前記処理部が、前記表示部に、前記オブジェクトを画像データとして表示させる画像データ表示ステップと、
前記入力部の操作によって、前記表示部に表示された前記オブジェクトの輪郭から内側の領域が選択領域として選択されると、前記処理部が所定の判断基準に従って前記選択領域の画像が前記オブジェクトの特徴を捨象した特徴捨象画像であると判断した場合に、前記処理部が、前記選択領域を要素データとして抽出する要素データ抽出ステップと、
を前記処理部に実行させることを特徴とする。
この構成によれば、ユーザは、高いデザイン能力を要するデフォルメ加工をすることなく、要素データをそのまま用いるだけで、独自性が高く美しいデザイン画像を簡単に創出することができる。すなわち、ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像を創り出すことが可能になる。
The image processing program of the present invention
An image processing program to be executed by the processing unit in an image processing apparatus including a storage unit that stores image data of an object, an input unit, a display unit, and a processing unit,
An image data display step in which the processing unit causes the display unit to display the object as image data;
When a region inside the outline of the object displayed on the display unit is selected as a selection region by the operation of the input unit, the processing unit displays an image of the selection region according to a predetermined determination criterion. Element data extraction step for extracting the selected area as element data when it is determined that the image is a feature-separated image.
Is executed by the processing unit.
According to this configuration, the user can easily create a unique and beautiful design image simply by using the element data as it is without performing deformation processing requiring high design ability. In other words, anyone can create a unique design and beautiful design image regardless of the user's individual design ability.

本発明の画像処理装置は、
オブジェクトの画像データを記憶する記憶部と、
入力部と、
表示部と、
上記の画像処理プログラムを実行する処理部と、
を備えたことを特徴とする。
この構成によれば、ユーザは、高いデザイン能力を要するデフォルメ加工をすることなく、要素データをそのまま用いるだけで、独自性が高く美しいデザイン画像を簡単に創出することができる。すなわち、ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像を創り出すことが可能になる。
The image processing apparatus of the present invention
A storage unit for storing image data of the object;
An input section;
A display unit;
A processing unit that executes the image processing program;
It is provided with.
According to this configuration, the user can easily create a unique and beautiful design image simply by using the element data as it is without performing deformation processing requiring high design ability. In other words, anyone can create a unique design and beautiful design image regardless of the user's individual design ability.

本発明の工業製品は、上記の画像処理方法を用いて抽出された前記要素データ、または、上記の画像処理方法を用いて作成された前記他の画像データに基づくデザインが、施されてなることを特徴とする。
この構成によれば、誰でも簡単に、独自性が高く美しいデザインが施されてなる工業製品を提供することができる。
The industrial product of the present invention has been designed based on the element data extracted using the image processing method or the other image data created using the image processing method. It is characterized by.
According to this configuration, anyone can easily provide an industrial product having a unique and beautiful design.

本発明によれば、ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像を創り出すことを可能にする、画像処理方法、画像処理プログラム及び画像処理装置を提供すること、並びに、誰でも簡単に、独自性が高く美しいデザインが施されてなる工業製品を提供することができる。   According to the present invention, it is possible to provide an image processing method, an image processing program, and an image processing apparatus that enable anyone to create a unique and beautiful design image regardless of a user's individual design ability. In addition, anyone can easily provide an industrial product with a unique and beautiful design.

本発明の画像処理装置の第1実施形態に係る構成を示す機能ブロック図である。1 is a functional block diagram showing a configuration according to a first embodiment of an image processing apparatus of the present invention. 本発明の画像処理装置の第1実施形態に係る処理を示すフローチャートである。It is a flowchart which shows the process which concerns on 1st Embodiment of the image processing apparatus of this invention. 図2の処理を実行中での表示部による表示例を示す図である。It is a figure which shows the example of a display by the display part in execution of the process of FIG. 図2の処理を実行中での表示部による表示例を示す図である。It is a figure which shows the example of a display by the display part in execution of the process of FIG. 図2の処理を実行中での表示部による表示例を示す図である。It is a figure which shows the example of a display by the display part in execution of the process of FIG. 図2の処理を実行中での表示部による表示例を示す図である。It is a figure which shows the example of a display by the display part in execution of the process of FIG. 図2の処理を実行中での表示部による表示例を示す図である。It is a figure which shows the example of a display by the display part in execution of the process of FIG. 要素データの例を示す図である。It is a figure which shows the example of element data. 図8の要素データを用いて作成されたデザイン画像データの例を示す図である。It is a figure which shows the example of the design image data produced using the element data of FIG. 本発明の画像処理装置の第2実施形態に係る処理を示すフローチャートである。It is a flowchart which shows the process which concerns on 2nd Embodiment of the image processing apparatus of this invention. 図10の処理を実行中での表示部による表示例を示す図である。It is a figure which shows the example of a display by the display part in process of performing FIG. 本発明の画像処理装置の第3実施形態に係る処理を示すフローチャートである。It is a flowchart which shows the process which concerns on 3rd Embodiment of the image processing apparatus of this invention. 図12の処理を実行中での表示部による表示例を示す図である。It is a figure which shows the example of a display by the display part in process of performing FIG. 要素データの他の例を示す図である。It is a figure which shows the other example of element data. 図14の要素データに基づくデザインが施されてなるマフラーの例を示す図である。It is a figure which shows the example of the muffler by which the design based on the element data of FIG. 14 is given.

本発明の実施形態を例示説明する前に、本発明の概要を説明する。
一般的に、人間が目で見て認識できる物体(オブジェクト)には、特定のオブジェクトであることを明確に示す属性(以下、「特定属性」という。)と、専門家から説明されなければそのオブジェクトの属性である、と認識できない隠れた属性(以下、「付加属性」という。)とがある。
オブジェクトを目で見た時に、そのオブジェクトを誰でも特定できる属性に外観の形状がある。あるいは複数の形状の組み合わせから一つのオブジェクトを特定できる場合もある。前者の例として、動物や植物等の生物は、そのオブジェクトと特定できる外観の特徴を持っている。後者の例として、風景は複数の組み合わせ、例えば森と川の組み合わせの特徴から特定の地域の風景と認識できる。このように目で見ることのできるオブジェクトではそのオブジェクトを特徴づける属性からオブジェクトを特定でき、またそのオブジェクトを特定できる属性を必ずオブジェクトは少なくとも一つあるいは少なくとも一組持っている。この属性が「特定属性」である。なお、本発明では、オブジェクト又はオブジェクトの「特定属性」を、オブジェクト又はオブジェクトの「特徴」という場合もある。
このようなオブジェクトの性質がある一方で、そのオブジェクトの属性であるにもかかわらず、日常その属性を使ってオブジェクトを認識していないために、専門家で無ければオブジェクトを特定することができない属性がある。この属性が「付加属性」である。例えば、虫の羽根の一部の模様を取り出した画像は、専門家でなければその画像が虫の画像の一部とは気がつかない。あるいは風景の一部として水しぶきの輝きを取り出した画像では、水しぶきの画像と認識できないだけでなく、その水しぶきがどこの風景であるかは、専門家でも認識できない場合もある。すなわち、特定のオブジェクトを想起させることはできないが、明らかにそのオブジェクトの属性である、というのが「付加属性」である。
Prior to illustrating embodiments of the present invention by way of example, an outline of the present invention will be described.
In general, an object (object) that can be recognized visually by human eyes is an attribute that clearly indicates that the object is a specific object (hereinafter referred to as a “specific attribute”), and an object that is not explained by an expert. There are hidden attributes (hereinafter referred to as “additional attributes”) that cannot be recognized as object attributes.
There is an appearance shape as an attribute that allows anyone to identify an object when the object is viewed. Alternatively, there may be a case where one object can be specified from a combination of a plurality of shapes. As an example of the former, living things such as animals and plants have appearance features that can be identified as objects. As an example of the latter, a landscape can be recognized as a landscape of a specific area from the characteristics of a plurality of combinations, for example, a combination of a forest and a river. In such an object that can be seen with the eyes, the object can be specified from the attributes that characterize the object, and the object always has at least one attribute or at least one set that can specify the object. This attribute is a “specific attribute”. In the present invention, the “specific attribute” of the object or the object may be referred to as “feature” of the object or the object.
On the other hand, it is an attribute of an object that cannot be specified unless it is an expert, because it is an attribute of the object but does not recognize the object using the attribute on a daily basis. There is. This attribute is an “additional attribute”. For example, an image obtained by extracting a part of the pattern of an insect wing cannot be recognized as a part of the insect image unless it is an expert. Alternatively, an image obtained by extracting the brightness of a splash as a part of the landscape cannot be recognized as a splash image, and an expert may not be able to recognize the landscape of the splash. That is, the “additional attribute” means that a specific object cannot be recalled, but is clearly an attribute of the object.

オブジェクトの画像からデザインを創出する場合、オブジェクトの特定属性をデフォルメせずにそのままデザインとして用いると、デザインを観た者がオブジェクトを容易に想起又は特定してしまうため、デザインに高い独自性や美しさを持たせることができない。そこで、従来より、デザイナーは、オブジェクトの特定属性にデフォルメなどの加工を施すことで、独自性が高く美しいデザインを創出してきた。このデフォルメ加工は、デザイナー個人の能力の高さに依存する割合が多いことから、高いデザイン能力を持つ者でなければ、独自性が高く美しいデザインを創り出すことはできなかった。 When creating a design from an image of an object, if the specific attribute of the object is used as it is without being deformed, the person who viewed the design will easily recall or identify the object. I can't make it. Therefore, designers have created unique and beautiful designs by applying deformation and other processes to specific attributes of objects. Since this deformation process often depends on the individual ability of designers, it was impossible for anyone with high design ability to create unique and beautiful designs.

本発明は、あるオブジェクトの画像から、オブジェクトの特定属性(特徴)を含まない、オブジェクトの付加属性だけで構成された部分の画像(特徴捨象画像)を、デザインの要素データとして抽出するものである。この要素データは、これを観た者によってオブジェクトが容易に想起又は特定されないような、画像データである。ユーザは、この要素データ自体をデフォルメせずにそのままデザインとしたり、複数の要素データを組み合わせて1つのデザインとするだけで、独自性が高く美しいデザイン画像を創り出すことができる。このように、本発明は、ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像を創り出すことを可能にするものである。
なお、本発明において「特徴捨象画像」とは、オブジェクトの特定属性(特徴)を含まない、オブジェクトの付加属性だけで構成された画像であり、言い換えれば、オブジェクトの特徴を捨象した画像である。
また、本発明において、「要素データ」とは、その電子データ自体を意味する場合以外にも、要素データに基づき表示される画像を意味する場合もある。
According to the present invention, an image of a part (feature-separated image) that includes only an additional attribute of an object and does not include a specific attribute (feature) of the object is extracted as element data of the design from the image of a certain object. . This element data is image data that cannot be easily recalled or specified by those who have viewed it. The user can create a design image that is highly unique and beautiful simply by designing the element data itself without deforming it or by combining a plurality of element data into one design. As described above, the present invention makes it possible for anyone to create a beautiful and unique design image regardless of the high design ability of the individual user.
In the present invention, the “feature-separated image” is an image that does not include the specific attribute (feature) of the object and is configured only with the additional attribute of the object, in other words, an image in which the features of the object are discarded.
In addition, in the present invention, “element data” may mean an image displayed based on element data in addition to the electronic data itself.

以下、本発明の実施形態について、図面を参照して例示説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1実施形態)
図1〜図9は、本発明の第1実施形態を示すものである。まず、図1を参照して、本実施形態に係る画像処理装置10の構成を説明する。画像処理装置10は、例えばPC、タブレット端末、携帯電話、スマートフォン等を構成することができ、記憶部20と、入力部21と、表示部22と、処理部23とを、備えている。画像処理装置10は、一体的に構成されて1ユニットを形成してもよいし、記憶部20、入力部21、表示部22及び処理部23のうち少なくともいずれか1つが、画像処理装置10の他の部分と別体に構成されて、当該他の部分と有線通信又は無線通信が可能なように接続されてもよい。
(First embodiment)
1 to 9 show a first embodiment of the present invention. First, the configuration of the image processing apparatus 10 according to the present embodiment will be described with reference to FIG. The image processing apparatus 10 can constitute, for example, a PC, a tablet terminal, a mobile phone, a smartphone, and the like, and includes a storage unit 20, an input unit 21, a display unit 22, and a processing unit 23. The image processing apparatus 10 may be integrally configured to form one unit, and at least one of the storage unit 20, the input unit 21, the display unit 22, and the processing unit 23 may be included in the image processing apparatus 10. It may be configured separately from the other parts and connected to the other parts so that wired communication or wireless communication is possible.

記憶部20は、例えばRAM及びROMのうち少なくともいずれか一方を1つ又は複数有しており、オブジェクトを表した1つ又は複数の画像データ30や、処理部23が実行するための画像処理プログラム31等の、各種の情報を記憶する。
後述するように、本実施形態では、この画像データ30から、オブジェクトの特定属性を含まない、オブジェクトの付加属性だけで構成された部分の画像を要素データとして抽出し、この要素データをデフォルメせずに用いてデザイン画像データを作成することとなる。
画像データ30としては、例えば、デジタルカメラでオブジェクトを撮影するか、又は、オブジェクトを撮影したアナログ媒体すなわち紙等に印刷等されたオブジェクトの画像をスキャナーで読み取る等して、デジタル画像化されたものを用いる。
オブジェクトとしては、例えば、植物、昆虫、動物等の生物や、山、川、谷等の自然の風景や、建築物、自動車、半導体等の人工物等、表実に世に存在する又はしていたものであることが好ましいが、このようなものをそのまま描写した、手で描いた絵画や、ソフトウェアを用いて描いた絵画でもよい。
画像データ30におけるオブジェクト以外の部分(背景)は、オブジェクトとの区別が容易につくように、単一色で表れていることが好ましい。
画像データ30には、オブジェクトの全体像が含まれていることが最も好ましいが、オブジェクトの一部のみが含まれていてもよい。具体的には、画像データ30に含まれているオブジェクト部分の面積が、オブジェクト全体の投影面積に対して1/100000倍〜1倍であることが好ましく、1/100倍〜1倍であることがさらに好ましく、1倍であることが最も好ましい。オブジェクト全体に対する、画像データ30に含まれているオブジェクト部分の割合が大きくなるほど、デザインの要素データの候補となる画像情報が多くなるので、ユーザにとっての選択の自由度を上げることができる。逆に、画像データ30に含まれているオブジェクト部分の面積が、オブジェクト全体の投影面積に対して1/100000倍未満である場合、オブジェクトの特定属性(特徴)を初めからできるだけ画像データ30に含ませないようにできる点では有利だが、画像データ30には少量の画像情報しか含まれないので、ユーザにとっての選択の自由度を低下させるおそれがある。
なお、人の目に余り触れないようなオブジェクトを画像データ30のオブジェクトとすることが、独自性の高いデザイン画像を創出する観点からは好ましい。
The storage unit 20 includes, for example, one or more of at least one of RAM and ROM, and one or more image data 30 representing an object, and an image processing program to be executed by the processing unit 23. Various information such as 31 is stored.
As will be described later, in the present embodiment, an image of a part composed of only the additional attribute of the object, which does not include the specific attribute of the object, is extracted from the image data 30 as element data, and the element data is not deformed. Design image data will be created.
The image data 30 is, for example, a digital image obtained by photographing an object with a digital camera, or reading an image of an object printed on an analog medium on which the object is photographed, that is, paper, etc. Is used.
Objects such as plants, insects, animals, etc., natural scenery such as mountains, rivers, valleys, etc., artifacts such as buildings, cars, semiconductors, etc. However, it is also possible to use a picture drawn by hand or a picture drawn using software.
It is preferable that a portion (background) other than the object in the image data 30 appears in a single color so that it can be easily distinguished from the object.
Most preferably, the image data 30 includes the entire image of the object, but may include only a part of the object. Specifically, the area of the object portion included in the image data 30 is preferably 1 / 100,000 times to 1 time, and 1/100 times to 1 time the projected area of the entire object. Is more preferable, and it is most preferable that it is 1 time. As the proportion of the object portion included in the image data 30 with respect to the entire object increases, the amount of image information that is a candidate for the design element data increases, so that the degree of freedom of selection for the user can be increased. On the contrary, when the area of the object part included in the image data 30 is less than 1/100000 times the projected area of the entire object, the specific attribute (feature) of the object is included in the image data 30 as much as possible from the beginning. Although it is advantageous in that it can be avoided, since the image data 30 contains only a small amount of image information, there is a risk of reducing the degree of freedom of selection for the user.
In addition, it is preferable from the viewpoint of creating a design image with high uniqueness that an object that does not touch the human eye is used as the object of the image data 30.

処理部23は、1つ又は複数の中央処理装置(CPU)等で構成されており、記憶部20に記憶された画像処理プログラム31を実行して、入力部21、表示部22、記憶部20を含む、画像処理装置10の全体を制御する。   The processing unit 23 includes one or a plurality of central processing units (CPUs) and the like, and executes the image processing program 31 stored in the storage unit 20 to input the input unit 21, the display unit 22, and the storage unit 20. The entire image processing apparatus 10 is controlled.

入力部21は、ユーザからの入力を受け付ける。入力部21は、例えば、マウス、キーパッド、ボタン、デジタルペン等で構成されてもよいし、表示部22とともに、タッチパネルを構成してもよい。   The input unit 21 receives input from the user. The input unit 21 may be configured with, for example, a mouse, a keypad, a button, a digital pen, or the like, or may be configured with the display unit 22 as a touch panel.

表示部22は、例えば液晶ディスプレイ(LCD)等で構成されており、記憶部20に記憶される画像データ30等の各種の情報を表示する。   The display unit 22 is configured by a liquid crystal display (LCD), for example, and displays various types of information such as image data 30 stored in the storage unit 20.

次に、図2〜図9を参照して、本実施形態に係る画像処理装置10による画像処理の一例を説明する。なお、この画像処理は、処理部23が画像処理プログラム31を実行して行うものである。逆に言うと、画像処理プログラム31は、所定の各ステップを処理部23に実行させるものである。予め、この画像処理の開始前には、オブジェクトを表した1つ又は複数の画像データ30が記憶部20に記憶されている。   Next, an example of image processing by the image processing apparatus 10 according to the present embodiment will be described with reference to FIGS. This image processing is performed by the processing unit 23 executing the image processing program 31. In other words, the image processing program 31 causes the processing unit 23 to execute predetermined steps. Prior to the start of this image processing, one or a plurality of image data 30 representing an object is stored in the storage unit 20 in advance.

画像処理プログラム31が起動された後、ユーザによる入力部21の操作によって、記憶部20に記憶された1つ又は複数の画像データ30のうちいずれかが選択されると、処理部23は、図3に示すように、選択された画像データ30を表示部22に表示させる(ステップS11)。
なお、図3の画像データ30は、虫(和名:アラメミドリフトタマムシ:学名Sternocera pulchra)を沸騰したお湯に入れ、形を整えて標本とした後、この標本をオブジェクト40として、AF-S VR Micro-Nikkor 105mm f/2.8G IF-EDをとりつけたニコンD3で撮影して得たものである。表示部22に表示されている画像データ30のオブジェクト40は、アドビ システムズ株式会社製のPHOTOSHOP (登録商標) CS5.1を用いて、原寸の100倍に拡大されている。本例において、オブジェクト40(虫)の特定属性は、当該虫の触角及び歩脚等であり、当該虫における他の部分が付加属性である。
After the image processing program 31 is activated, when one of the image data 30 stored in the storage unit 20 is selected by the user's operation of the input unit 21, the processing unit 23 As shown in FIG. 3, the selected image data 30 is displayed on the display unit 22 (step S11).
Note that the image data 30 in FIG. 3 is obtained by placing an insect (Japanese name: Aramemi Drift Tamamushi: scientific name Sternocera pulchra) in boiling water, preparing a sample with a shape, and using this sample as an object 40, AF-S This was taken with a Nikon D3 with VR Micro-Nikkor 105mm f / 2.8G IF-ED. The object 40 of the image data 30 displayed on the display unit 22 is enlarged 100 times the original size using PHOTOSHOP (registered trademark) CS5.1 manufactured by Adobe Systems Inc. In this example, the specific attributes of the object 40 (insect) are the antennae and pedestrians of the insect, and other parts of the insect are additional attributes.

ステップS11の後、処理部23は、表示部22に表示させている画像データ30におけるオブジェクト40と背景41との境界線をなすオブジェクト40の輪郭42を特定し、図4に示すように、表示部22に、オブジェクト40の輪郭42を画像データ30上に重ね合わせて表示させる(ステップS12)。
ここで、処理部23は、オブジェクト40の輪郭42の特定を、画像データ30に基づいて自動で行ってもよいし、かつ/又は、ユーザに、表示部22に表示される画像データ30上で、入力部21によってオブジェクト40の輪郭42を指定させることにより行ってもよい。なお、画像データ30に基づいて自動でオブジェクト40の輪郭42を特定する方法としては、例えば、画像データ30のうちほぼ単一色で表れている部分又はピントぼけしている(鮮明でない)部分を背景41として特定して、それ以外の部分をオブジェクト40として特定することで、背景41とオブジェクト40との境界線をオブジェクト40の輪郭42として特定する方法等があるが、公知であるので詳細な説明を省略する。
なお、本発明において、「オブジェクト40の輪郭42」とは、画像データ30にオブジェクト40の一部のみが含まれていて、これによりオブジェクト40の一部が画像データ30の外縁上に位置する場合、画像データ30内に表れているオブジェクト40の輪郭と、画像データ30の外縁のうちオブジェクト40と重なる部分とからなるものとする。
After step S <b> 11, the processing unit 23 specifies the outline 42 of the object 40 that forms the boundary line between the object 40 and the background 41 in the image data 30 displayed on the display unit 22. As shown in FIG. The outline 42 of the object 40 is superimposed on the image data 30 and displayed on the unit 22 (step S12).
Here, the processing unit 23 may automatically specify the contour 42 of the object 40 based on the image data 30 and / or on the image data 30 displayed on the display unit 22 by the user. Alternatively, the input unit 21 may designate the contour 42 of the object 40. As a method for automatically specifying the outline 42 of the object 40 based on the image data 30, for example, a portion of the image data 30 that appears almost in a single color or a portion that is out of focus (not clear) is used as the background. There is a method of specifying the boundary line between the background 41 and the object 40 as the outline 42 of the object 40 by specifying the other part as the object 40 and specifying the other part as the object 40. Is omitted.
In the present invention, the “outline 42 of the object 40” refers to a case where only a part of the object 40 is included in the image data 30, whereby a part of the object 40 is located on the outer edge of the image data 30. The contour of the object 40 appearing in the image data 30 and the portion of the outer edge of the image data 30 that overlaps the object 40 are assumed.

次に、処理部23は、例えば表示部22に「デザイン素材とする領域を選択してください」というメッセージを表示させつつ、表示部22に表示される画像データ30内で、一部の領域が、ユーザによる入力部21の操作によって選択されるまで待機する(ステップS13、No)。画像データ30内で一部の領域が選択されると(ステップS13、Yes)、処理部23は、図5に示すように、選択された領域(以下、「第1の選択領域」という。)A1の輪郭を、表示部22に、画像データ30上に重ね合わせて表示させる。次に、処理部23は、第1の選択領域A1の少なくとも一部が、オブジェクト40の輪郭42よりも外側に存在する場合(ステップS14、No)、例えば表示部22に「オブジェクトの輪郭から内側で、デザイン素材とする領域を選択してください」というメッセージを表示させる等して、ユーザに案内を通知し(ステップS25)、ステップS13に戻って、再び一部の領域が選択されるまで待機する。   Next, the processing unit 23 displays, for example, a message “Please select a region as a design material” on the display unit 22, while a part of the region is displayed in the image data 30 displayed on the display unit 22. It waits until it is selected by the operation of the input unit 21 by the user (step S13, No). When a part of the area is selected in the image data 30 (step S13, Yes), the processing unit 23 selects the selected area (hereinafter referred to as “first selection area”) as shown in FIG. The outline of A1 is superimposed on the image data 30 and displayed on the display unit 22. Next, when at least a part of the first selection area A1 exists outside the outline 42 of the object 40 (Step S14, No), the processing unit 23 displays, for example, “inside from the object outline on the inside. In such a case, the user is notified of the guidance (step S25), returns to step S13, and waits until a part of the region is selected again. To do.

一方、第1の選択領域A1の全部が、オブジェクト40の輪郭42から内側に存在する場合(ステップS14、Yes)、処理部23は、画像データ30に基づいて特定されるオブジェクト40の3次元形状に基づいて、第1の選択領域A1を複数の部分領域へと区分け可能か否かを判断する(ステップS15)。
ここで、「輪郭42から内側」とは、輪郭42よりも内側の領域と、輪郭42とを含む。よって、「第1の選択領域A1の全部が、オブジェクト40の輪郭42から内側に存在する場合」とは、第1の選択領域A1の全部が、オブジェクト40の輪郭42よりも内側の領域内に存在する場合に限られず、第1の選択領域A1の輪郭の一部が、オブジェクト40の輪郭42の一部と重なる場合も含む。
また、「画像データ30に基づいて特定されるオブジェクト40の3次元形状」とは、例えば、画像データ30に写るオブジェクト40の光と影を特定することで把握できる表面粗さ等であり、その具体的な特定方法は公知であるので、詳細な説明を省略する。
ステップS15では、具体的に、例えば、第1の選択領域A1を単位面積毎に区画して、区画された各区画領域でのオブジェクト40の3次元形状(平均表面粗さ等)を数値化し、3次元形状の差異が所定値以上である2つの区画領域どうしが隣接する場合に、これら区画領域間で区分けできると判断する。そして、このように区分けできると判断した区画領域間の境界線どうしを連結させることにより、第1の選択領域A1を区分けするための区分け線を引くことができれば、第1の選択領域A1を複数の部分領域へと区分けできると判断する。
オブジェクト40の3次元形状の特定は、ステップS15以前である限りにおいて任意のタイミングで行ってよく、例えばステップS12の後に、オブジェクト40の輪郭42から内側の領域全体について行ってもよいし、あるいは、ステップS14の後に、第1の選択領域A1のみについて行ってもよい。
On the other hand, when all of the first selection area A1 exists inside the outline 42 of the object 40 (step S14, Yes), the processing unit 23 determines the three-dimensional shape of the object 40 specified based on the image data 30. Based on the above, it is determined whether or not the first selection area A1 can be divided into a plurality of partial areas (step S15).
Here, “inner side from the contour 42” includes a region inside the contour 42 and the contour 42. Therefore, “when all of the first selection area A1 exists inside the outline 42 of the object 40” means that all of the first selection area A1 is within the area inside the outline 42 of the object 40. It is not limited to the case where it exists, and includes a case where a part of the outline of the first selection area A1 overlaps a part of the outline 42 of the object 40.
The “three-dimensional shape of the object 40 specified based on the image data 30” is, for example, surface roughness that can be grasped by specifying the light and shadow of the object 40 that appears in the image data 30, and the like. Since a specific specifying method is publicly known, detailed description thereof is omitted.
In step S15, specifically, for example, the first selection region A1 is partitioned for each unit area, and the three-dimensional shape (average surface roughness, etc.) of the object 40 in each partitioned region is quantified, When two partitioned areas having a three-dimensional shape difference equal to or greater than a predetermined value are adjacent to each other, it is determined that the partitioned areas can be divided. If the dividing lines for dividing the first selection area A1 can be drawn by connecting the boundary lines between the divided areas determined to be divided in this way, a plurality of the first selection areas A1 are provided. It can be determined that it can be divided into partial areas.
The three-dimensional shape of the object 40 may be specified at an arbitrary timing as long as it is before step S15. For example, after step S12, the entire area inside the outline 42 of the object 40 may be specified. You may perform only about 1st selection area | region A1 after step S14.

ステップS15で、区分けが可能と判断した場合(ステップS15、Yes)、処理部23は、図6に示すように、第1の選択領域A1内に区分け線を引く等して、当該領域A1を区分けして、各部分領域A2、A3の輪郭を、表示部22に、画像データ30上に重ね合わせて表示させる(ステップS16)。   If it is determined in step S15 that segmentation is possible (step S15, Yes), the processing unit 23 draws the segment A1 in the first selection region A1, as shown in FIG. The contours of the partial areas A2 and A3 are divided and displayed on the display unit 22 so as to be superimposed on the image data 30 (step S16).

その後、処理部23は、例えば表示部22に「区分けされた領域内で、再度、デザイン素材とする領域を選択してください」というメッセージを表示させつつ、いずれか1つの部分領域A2、A3の少なくとも一部分が選択されるまで待機する(ステップS17、No)。いずれか1つの部分領域A2、A3の少なくとも一部分が選択されると(ステップS17、Yes)、図7に示すように、選択された領域(以下、「第2の選択領域」という。)A4の輪郭を、表示部22に、画像データ30上に重ね合わせて表示させる。
なお、「いずれか1つの部分領域A2、A3の少なくとも一部分」とは、当該部分領域A2、A3の輪郭を含んでもよい。
Thereafter, the processing unit 23 displays, for example, a message “Please select an area as a design material again in the divided area” on the display unit 22, while displaying one of the partial areas A <b> 2 and A <b> 3. It waits until at least a part is selected (step S17, No). When at least a part of any one of the partial areas A2 and A3 is selected (step S17, Yes), as shown in FIG. 7, the selected area (hereinafter referred to as “second selection area”) A4 is selected. The contour is superimposed on the image data 30 and displayed on the display unit 22.
Note that “at least a part of any one of the partial areas A2 and A3” may include the outlines of the partial areas A2 and A3.

ここで、デザインの要素データとして抽出されることとなる選択領域に、オブジェクト40の3次元形状が複数種類含まれると、この要素データを用いたデザイン画像を観る者によって、オブジェクト40が想起又は特定され易くなる。このことに鑑み、ステップS15〜S17では、最初に選択された第1の選択領域A1に、オブジェクト40の3次元形状が複数種類含まれる場合、第1の選択領域A1を3次元形状の種類毎に区分けして、区分けされた部分領域内で再度ユーザに領域を選択してもらうようにすることで、再び選択された第2の選択領域A4の画像が特徴捨象画像となるようにしている。これにより、第2の選択領域A4には、1種類のみの3次元形状が含まれることとなるので、デザイン画像を観た者によってオブジェクト40がより想起又は特定されにくいような要素データを、確実に抽出することができる。   Here, when a plurality of types of three-dimensional shapes of the object 40 are included in the selection area to be extracted as design element data, the object 40 is recalled or specified by a person who views the design image using the element data. It becomes easy to be done. In view of this, in steps S15 to S17, when the first selection area A1 selected first includes a plurality of types of three-dimensional shapes of the object 40, the first selection area A1 is classified for each type of three-dimensional shape. And the user selects the area again in the divided partial area, so that the image of the second selected area A4 selected again becomes the feature image. As a result, since the second selection area A4 includes only one type of three-dimensional shape, element data that makes it difficult for the person who viewed the design image to recall or specify the object 40 is surely included. Can be extracted.

ステップS17の後、処理部23は、第2の選択領域A4の輪郭の形状がオブジェクト40の輪郭42の形状と相似である場合(ステップS18、No)、及び/又は、第2の選択領域A4の面積が所定範囲を超えている場合(ステップS19、No)、例えば表示部22に「輪郭の形状がオブジェクトの輪郭の形状と非相似となるように、区分けされた領域内で、再度、デザイン素材とする領域を選択してください」というメッセージを表示させる等して、ユーザに案内を通知し(ステップS20)、ステップS17に戻って、再び一部の領域が選択されるまで待機する。
ここで、ステップS18では、具体的に、第2の選択領域A4の輪郭の形状を、拡大若しくは縮小、平行移動、回転、及び/又は反転させることで、オブジェクト40の輪郭42の形状と重なるようにすることができる場合に、両形状が「相似」であると判断する。ここで、両形状が完全に重ならくても、両形状間のずれが所定範囲内である場合に、両形状が「相似」である判断してもよい。第2の選択領域A4の輪郭の形状がオブジェクト40の輪郭42の形状と相似であると、デザインの要素データとして抽出されることとなる第2の選択領域A4の輪郭形状から、オブジェクトが想起又は特定され易くなるので、好ましくない。ステップS18を設け、これによって第2の選択領域A4の画像が特徴捨象画像か否かを判断することにより、要素データ又はこれを用いて作成されたデザイン画像データを観た者によって、オブジェクト40がより想起又は特定されにくいような要素データを、確実に抽出することができるので、ユーザは、より独自性が高く美しいデザイン画像を創出することができる。
ステップS19において、第2の選択領域A4の面積と比較される「所定範囲」とは、オブジェクト40の輪郭42の内側の領域の面積の0.001〜90%の範囲に設定することが好ましい。ここで、この「所定範囲」を、オブジェクト40の輪郭42の内側の領域の面積の90%以下と設定することにより、デザインの要素データとして抽出されることとなる第2の選択領域A4に、オブジェクト40の特定属性が、ほとんど又は全く含まれなくすることができるので、要素データを、ほぼ当該オブジェクトの付加属性のみから構成することができる。これにより、デザイン画像を観た者によってオブジェクト40がより想起又は特定されにくいような要素データを、確実に抽出することができる。また、この「所定範囲」を、オブジェクト40の輪郭42の内側の領域の面積の0.001%以上とすることにより、第2の選択領域A4に十分な量のデザイン素材(オブジェクトの付加属性情報)を含めることができる。したがって、ステップS19を設け、これによって第2の選択領域A4の画像が特徴捨象画像か否かを判断することにより、ユーザは、より独自性が高く美しいデザイン画像を創出することができる。同様の観点からは、この「所定範囲」を、オブジェクト40の輪郭42の内側の領域の面積の0.1〜50%の範囲に設定することが、さらに好ましい。
After step S17, the processing unit 23 determines that the shape of the contour of the second selection region A4 is similar to the shape of the contour 42 of the object 40 (step S18, No), and / or the second selection region A4. If the area of the object exceeds the predetermined range (step S19, No), for example, the display unit 22 “designs again in the segmented region so that the contour shape is not similar to the contour shape of the object. The user is informed of the guidance by displaying a message “Please select a region as a material” or the like (step S20), and returns to step S17 to wait until a part of the region is selected again.
Here, in step S18, specifically, the outline shape of the second selection area A4 is enlarged or reduced, translated, rotated, and / or reversed so as to overlap the shape of the outline 42 of the object 40. If it can be determined, both shapes are judged to be “similar”. Here, even if the two shapes are completely overlapped, it may be determined that the two shapes are “similar” when the deviation between the two shapes is within a predetermined range. If the shape of the outline of the second selection area A4 is similar to the shape of the outline 42 of the object 40, the object is recalled from the outline shape of the second selection area A4 to be extracted as design element data. Since it becomes easy to specify, it is not preferable. By providing step S18 and determining whether or not the image of the second selection area A4 is a feature-rejected image, the object 40 is displayed by the person who has seen the element data or the design image data created using the element data. Since element data that is less likely to be recalled or specified can be reliably extracted, the user can create a unique design and a beautiful design image.
In step S19, the “predetermined range” to be compared with the area of the second selection area A4 is preferably set to a range of 0.001 to 90% of the area of the area inside the outline 42 of the object 40. Here, by setting the “predetermined range” to be 90% or less of the area of the area inside the outline 42 of the object 40, the second selection area A4 to be extracted as design element data is Since the specific attribute of the object 40 can be included little or not at all, the element data can be composed of only the additional attribute of the object. Thereby, element data that makes it difficult for the person who viewed the design image to recall or identify the object 40 can be reliably extracted. Further, by setting the “predetermined range” to 0.001% or more of the area of the area inside the outline 42 of the object 40, a sufficient amount of design material (object additional attribute information) is added to the second selection area A4. ) Can be included. Therefore, by providing step S19 and determining whether or not the image of the second selection area A4 is a feature-removed image, the user can create a design image that is more unique and beautiful. From the same viewpoint, it is more preferable to set the “predetermined range” to a range of 0.1 to 50% of the area of the area inside the outline 42 of the object 40.

一方、第2の選択領域A4の輪郭の形状がオブジェクト40の輪郭42の形状と非相似であり(ステップS18、Yes)、かつ、第2の選択領域A4の面積が上記所定範囲内である場合(ステップS19、Yes)、処理部23は、第2の選択領域A4の画像が特徴捨象画像であると判断して、第2の選択領域A4をデザインの要素データ43として抽出し(ステップS21)、図8に示すように、要素データ43のみを表示部22に表示させる。   On the other hand, the shape of the contour of the second selection region A4 is dissimilar to the shape of the contour 42 of the object 40 (step S18, Yes), and the area of the second selection region A4 is within the predetermined range. (Step S19, Yes), the processing unit 23 determines that the image of the second selection area A4 is a feature image, and extracts the second selection area A4 as design element data 43 (Step S21). As shown in FIG. 8, only the element data 43 is displayed on the display unit 22.

一方、ステップS15で、処理部23は、オブジェクト40の3次元形状に基づいて、第1の選択領域A1を複数の部分領域へと区分けできないと判断した場合(ステップS15、No)、第1の選択領域A1について、ステップS18〜S20と同様の処理を行い(ステップS23〜S25)、その後、ステップS21で要素データ43の抽出を行う。   On the other hand, when the processing unit 23 determines in step S15 that the first selection area A1 cannot be divided into a plurality of partial areas based on the three-dimensional shape of the object 40 (No in step S15), the first For the selected area A1, the same processing as in steps S18 to S20 is performed (steps S23 to S25), and then the element data 43 is extracted in step S21.

ステップS21の後、処理部23は、ユーザによる入力部21の操作に従って、表示部22に表示させている要素データ43に基づいて、例えば図9に示すような、他の画像データ(以下、「デザイン画像データ」という。)44を作成して(ステップS22)、処理を終了する。ステップS22によれば、要素データ43の画像をそのままデザイン画像として用いる場合と比べて、デザイン画像を観た者によってオブジェクト40がさらに想起又は特定されにくいようなデザイン画像を創り出すことができる。
図9に示す画像データ44は、12個の要素データ43を、それぞれ交互に左右反転させて左右方向に連結させてなるものである。
After step S21, the processing unit 23, based on the element data 43 displayed on the display unit 22 according to the operation of the input unit 21 by the user, for example, other image data as shown in FIG. Design image data ") 44 is created (step S22), and the process is terminated. According to step S22, compared with the case where the image of the element data 43 is used as it is as a design image, it is possible to create a design image that makes it difficult for the person who viewed the design image to recall or specify the object 40.
The image data 44 shown in FIG. 9 is obtained by linking twelve element data 43 alternately in the left-right direction and connecting them in the left-right direction.

ステップS21で抽出されたデザインの要素データ43や、ステップS22で作成されたデザイン画像データ44は、例えば、衣類、傘、メガネ、カバン、財布等の雑貨、自動車、テレビ、PC、照明のフード等の、任意の工業製品や建築物に印刷されたり、当該工業製品や建築物に貼られる装飾用シール等に印刷される等して、当該工業製品や建築物を装飾することができる。このようにして、誰でも簡単に、独自性が高く美しいデザインが施されてなる工業製品や建築物を提供することができる。   The design element data 43 extracted in step S21 and the design image data 44 created in step S22 include, for example, miscellaneous goods such as clothes, umbrellas, glasses, bags, wallets, automobiles, televisions, PCs, lighting hoods, and the like. The industrial product or building can be decorated by printing on any industrial product or building or printing on a decorative sticker or the like attached to the industrial product or building. In this way, anyone can easily provide industrial products and buildings with unique and beautiful designs.

図14は、同様の画像処理で抽出された他の要素データの例を示しており、オブジェクトは、上記の例とは異なる虫(和名ミマスニジダイコクコガネ:学名Diabroctis mimas mimas)である。図15は、図14の要素データの画像をデフォルメせずに100倍拡大して得た画像(デザイン画像データの画像)が、デザインとして印刷された、マフラーを示している。   FIG. 14 shows an example of other element data extracted by the same image processing, and the object is an insect (Japanese name: Diabroctis mimas mimas) different from the above example. FIG. 15 shows a muffler in which an image (design image data image) obtained by enlarging the element data image of FIG. 14 by 100 times without deformation is printed as a design.

上述した一実施形態によれば、あるオブジェクトの画像から、このオブジェクトの特徴が捨象された部分の画像(特徴捨象画像)をデザインの要素データとして抽出することができるので、ユーザは、高いデザイン能力を要するデフォルメ加工をすることなく、要素データの画像をそのままデザイン画像として用いたり、要素データを用いて作成した他の画像データをデザイン画像として用いるだけで、独自性が高く美しいデザイン画像を簡単に創出することができる。このように、ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像創り出すことが可能になる。   According to the embodiment described above, an image of a part from which an object feature is discarded (feature image) can be extracted as design element data from an image of a certain object. The design data can be easily transformed into a unique and beautiful design image simply by using the image of the element data as a design image, or using other image data created using the element data as a design image. Can be created. In this manner, anyone can create a beautiful design image with high originality regardless of the high design ability of the individual user.

なお、図2のステップS14では、第1の選択領域A1の一部が、オブジェクト40の輪郭42よりも外側に存在する場合(ステップS14、No)、再度ユーザに領域を選択させる代わりに、第1の選択領域A1のうち、オブジェクト40の輪郭よりも外側の部分を除去して、オブジェクト40の輪郭から内側の部分を新たに第1の選択領域A1に置き換えるようにしてもよい。これにより、ユーザに再度領域を選択させることが防止されるので、ユーザの操作が簡単になる。   In step S14 of FIG. 2, when a part of the first selection area A1 exists outside the contour 42 of the object 40 (step S14, No), instead of letting the user select the area again, A portion outside the contour of the object 40 in the one selection region A1 may be removed, and a portion inside the contour of the object 40 may be newly replaced with the first selection region A1. This prevents the user from selecting the area again, and the user's operation is simplified.

なお、図2の画像処理において、領域の区分けに関して行うステップS15〜S17の処理、領域の輪郭形状に関して行うステップS18及びS23の処理、並びに、領域の面積に関して行うステップS19及びS24の処理の、3つの処理のうち、いずれか1つ又は2つを省略してもよい。また、これらのいずれか1つ以上の処理に代えて又は加えて、他の判断基準(例えば色彩等)に基づいて、選択領域の画像が特徴捨象画像であるか否かの判断を行うようにしてもよい。   In the image processing of FIG. 2, the processes of steps S15 to S17 that are performed for segmentation of the region, the processes of steps S18 and S23 that are performed for the contour shape of the region, and the processes of steps S19 and S24 that are performed for the area of the region. Any one or two of the two processes may be omitted. Further, instead of or in addition to any one or more of these processes, it is determined whether or not the image of the selected area is a feature-removed image based on other determination criteria (for example, color). May be.

なお、図2のステップS19、S24における選択領域の面積の判断は、それぞれステップS18、S23における選択領域の輪郭形状の判断の前に行ってもよい。あるいは、第1の選択領域A1の面積の上限(所定値以下か否か)の判断をステップS14の後に行って、ステップS19、S24では選択領域の面積の下限(所定値以上か否か)の判断のみを行うようにしてもよい。   The determination of the area of the selection region in steps S19 and S24 in FIG. 2 may be performed before the determination of the outline shape of the selection region in steps S18 and S23, respectively. Alternatively, the determination of the upper limit of the area of the first selection area A1 (whether it is equal to or less than a predetermined value) is made after step S14. Only the determination may be made.

図2のステップS22におけるデザイン画像データ44の作成は、ステップS21の後に自動的に開始される場合に限られず、ステップS21の後に一旦要素データ43を記憶部20に記憶させておき、ユーザによる入力部21の操作によってデザイン画像データ44の作成開始の指示が入力されてから、ステップS22を開始するようにしてもよい。   The creation of the design image data 44 in step S22 of FIG. 2 is not limited to the case where the design image data 44 is automatically started after step S21. After step S21, the element data 43 is temporarily stored in the storage unit 20 and input by the user. Step S22 may be started after an instruction to start creating the design image data 44 is input by the operation of the unit 21.

図2のステップS22では、同一の又は異なる複数の要素データ43を、任意の組合せ及び方法で並べて、デザイン画像データ44を作成することができる。どのような組合せ及び方法で並べるかについては、ユーザが入力部21を操作して選択できるようにすれば、デザインの自由度を高めることができる。
例えば、図2のステップS11〜S21の処理を、複数の異なるオブジェクトの画像データについて繰り返し行い、その後、ステップS22において、それぞれのオブジェクトの画像データから抽出された要素データを組み合わせて、1つのデザイン画像データ44を作成してもよい。この場合、デザイン画像データ44のデザイン独自性をさらに高めることができる。
また、デザイン画像データ44を作成するにあたっては、同一の又は異なる複数の要素データ43を、数学の関数関係に従った順番で並べてもよいし、繰り返しの規則性を持たせた順番で並べてもよいし、ランダムな順番で並べてもよい。
また、デザイン画像データ44を作成するにあたっては、要素データ43の色を、補色の関係にある色に変換した上で、当該変換された要素データを用いてもよいし、要素データ43の色情報をすべて色相に変換してモノクロ画像データに変換した上で、当該変換された要素データを用いてもよい。
デザイン画像データ44を作成するにあたっては、要素データ43を、1000倍までの範囲で、より好ましくは1.1〜1000倍に拡大させ、又は、0.01倍までの範囲で、より好ましくは0.01〜0.99倍に縮小させた画像のデータを用いると、デザイン画像を観た者によってオブジェクトがさらに想起又は特定されにくくすることができる。
なお、要素データ43を拡大させる場合は、画像をより鮮明にするために、デジタル画像の補間技術で画素を補間するのが好ましい。このような補間技術として、例えば、コンピュータのソフトウェアであるPHOTOSHOP(登録商標、アドビ システムズ株式会社)や、株式会社ニコン製やキヤノン株式会社製のデジタルカメラに付属するソフトウェアを使用し、画像の画素を増加させる方法などが知られている。
In step S22 of FIG. 2, the design image data 44 can be created by arranging a plurality of identical or different element data 43 in any combination and method. If the user can select the combination and method by operating the input unit 21, the degree of freedom in design can be increased.
For example, the process of steps S11 to S21 in FIG. 2 is repeatedly performed for image data of a plurality of different objects, and then, in step S22, element data extracted from the image data of each object is combined to form one design image. Data 44 may be created. In this case, the design uniqueness of the design image data 44 can be further enhanced.
In creating the design image data 44, the same or different element data 43 may be arranged in an order according to a mathematical function relationship, or may be arranged in an order having repetitive regularity. However, they may be arranged in a random order.
In creating the design image data 44, the color of the element data 43 may be converted into a complementary color and the converted element data may be used, or the color information of the element data 43 may be used. May be converted into monochrome image data after converting all of them into hues, and the converted element data may be used.
In creating the design image data 44, the element data 43 is enlarged up to 1000 times, more preferably 1.1 to 1000 times, or up to 0.01 times, more preferably 0. Using the image data reduced by 0.01 to 0.99 times can make it difficult for the person who viewed the design image to recall or specify the object.
In addition, when enlarging the element data 43, it is preferable to interpolate pixels by a digital image interpolation technique in order to make the image clearer. As such an interpolation technique, for example, PHOTOSHOP (registered trademark, Adobe Systems Incorporated), which is computer software, or software attached to a digital camera manufactured by Nikon Corporation or Canon Inc. is used, and the pixel of the image is obtained. A method for increasing the number is known.

なお、ユーザによる入力部21の操作によって、図2のステップS11で画像データ30をデフォルメできるようにしたり、図2のステップ21で要素データ43をデフォルメできるようにすることは、デザインの美的要素に個人差が大きく反映されるので好ましくない。   It should be noted that making the image data 30 deformable in step S11 of FIG. 2 or allowing the element data 43 to be deformed in step 21 of FIG. 2 by the operation of the input unit 21 by the user is an aesthetic element of the design. This is not preferable because individual differences are greatly reflected.

図2のステップS22では、要素データ43に加えて、任意の他のデザイン素材を用いて、他の画像データを作成してもよい。   In step S22 of FIG. 2, in addition to the element data 43, other image data may be created using any other design material.

(第2実施形態)
図10及び図11を主に参照して、本発明の第2実施形態を説明する。上述した第1実施形態は、デザインの要素データとして抽出されるための領域が、ユーザにより選択された後に、この選択された第1の選択領域にオブジェクトの3次元形状が複数種類含まれることが判明した場合、第1の選択領域をオブジェクトの3次元形状の種類毎に区分けして、区分けされた部分領域内で、再度ユーザに領域を選択させるものである。これに対して、第2実施形態は、ユーザに領域の選択をさせる前に、オブジェクトの輪郭から内側の領域を、オブジェクトの3次元形状に基づき区分けして、区分けされた部分領域内でユーザに領域を選択させるものである。これにより、ユーザにより選択される領域にオブジェクトの3次元形状が複数種類含まれることが防止されるので、ユーザに領域を選択し直させることが防止され、ユーザの操作が簡単になる。
なお、第2実施形態に係る画像処理装置の構成は、基本的に第1実施形態について図1を参照して説明した構成と同様である。
(Second Embodiment)
A second embodiment of the present invention will be described mainly with reference to FIGS. In the above-described first embodiment, after a region to be extracted as design element data is selected by the user, a plurality of types of three-dimensional shapes of objects are included in the selected first selection region. When it becomes clear, the first selection area is divided for each type of three-dimensional shape of the object, and the area is again selected by the user within the divided partial area. On the other hand, in the second embodiment, before letting the user select a region, the inner region from the contour of the object is divided based on the three-dimensional shape of the object, and the user is asked within the divided partial region. The area is selected. This prevents a plurality of types of three-dimensional object shapes from being included in the region selected by the user, thereby preventing the user from reselecting the region and simplifying the user's operation.
The configuration of the image processing apparatus according to the second embodiment is basically the same as the configuration described in the first embodiment with reference to FIG.

図10及び図11を主に参照して、本実施形態に係る画像処理装置10による画像処理の一例を説明する。なお、ここでは、第1実施形態について図2を参照して説明した画像処理と異なる部分を中心に説明する。
この画像処理は、処理部23が画像処理プログラム31を実行して行うものである。予め、この画像処理の開始前には、オブジェクトを表した1つ又は複数の画像データ30が記憶部20に記憶されている。
An example of image processing by the image processing apparatus 10 according to the present embodiment will be described mainly with reference to FIGS. 10 and 11. Note that, here, the first embodiment will be described with a focus on differences from the image processing described with reference to FIG.
This image processing is performed by the processing unit 23 executing the image processing program 31. Prior to the start of this image processing, one or a plurality of image data 30 representing an object is stored in the storage unit 20 in advance.

画像処理プログラム31が起動された後、ユーザによる入力部21の操作によって、記憶部20に記憶された1つ又は複数の画像データ30のうちいずれかが選択されると、処理部23は、図3に示すように、選択された画像データ30を表示部22に表示させる(ステップS41)。   After the image processing program 31 is activated, when one of the image data 30 stored in the storage unit 20 is selected by the user's operation of the input unit 21, the processing unit 23 As shown in FIG. 3, the selected image data 30 is displayed on the display unit 22 (step S41).

ステップS41の後、処理部23は、表示部22に表示させている画像データ30におけるオブジェクト40と背景41との境界線をなすオブジェクト40の輪郭42を特定し、図4に示すように、表示部22に、オブジェクト40の輪郭42を画像データ30上に重ね合わせて表示させる(ステップS42)。   After step S41, the processing unit 23 specifies the outline 42 of the object 40 that forms the boundary line between the object 40 and the background 41 in the image data 30 displayed on the display unit 22, and displays the outline 42 as shown in FIG. The unit 22 displays the outline 42 of the object 40 superimposed on the image data 30 (step S42).

次に、処理部23は、図11に示すように、画像データ30に基づいて特定されるオブジェクト40の3次元形状に基づいて、オブジェクト40の輪郭42から内側の領域に区分け線を引く等して、オブジェクト40の輪郭42から内側の領域を複数の部分領域A11〜A20へ区分けして、各部分領域A11〜A20の輪郭を、表示部22に、画像データ30上に重ね合わせて表示する(ステップS43)。   Next, as illustrated in FIG. 11, the processing unit 23 draws a dividing line from the outline 42 of the object 40 to the inner region based on the three-dimensional shape of the object 40 specified based on the image data 30. Then, the inner area from the outline 42 of the object 40 is divided into a plurality of partial areas A11 to A20, and the outlines of the partial areas A11 to A20 are displayed on the display unit 22 so as to be superimposed on the image data 30 ( Step S43).

その後、処理部23は、例えば表示部22に「区分けされた領域内で、デザイン素材とする領域を選択してください」というメッセージを表示させつつ、いずれか1つの部分領域の少なくとも一部分が選択されるまで待機する(ステップS44、No)。いずれか1つの部分領域の少なくとも一部分が選択されると(ステップS44、Yes)、選択された領域(以下、「選択領域」という。)の輪郭を、表示部22に、画像データ30上に重ね合わせて表示させる。
なお、「いずれか1つの部分領域の少なくとも一部分」とは、当該部分領域の輪郭を含んでもよい。
Thereafter, the processing unit 23 displays at least a part of any one of the partial regions while displaying a message “Please select a region as a design material within the divided region” on the display unit 22, for example. (Step S44, No). When at least a part of any one of the partial areas is selected (step S44, Yes), the outline of the selected area (hereinafter referred to as “selected area”) is superimposed on the image data 30 on the display unit 22. Display together.
The “at least part of any one partial area” may include the outline of the partial area.

ここで、デザインの要素データとして抽出されることとなる選択領域に、オブジェクト40の3次元形状が複数種類含まれると、この要素データを用いたデザイン画像を観る者によって、オブジェクト40が想起又は特定され易くなる。このことに鑑み、ステップS43〜S44では、オブジェクト40の輪郭42から内側の領域を3次元形状の種類毎に区分けして、区分けされた部分領域内でユーザに領域を選択してもらうようにすることで、当該選択領域の画像が特徴捨象画像となるようにしている。これにより、この選択領域には、1種類のみの3次元形状が含まれることとなるので、デザイン画像を観た者によってオブジェクト40がより想起又は特定されにくいような要素データを、確実に抽出することができる。   Here, when a plurality of types of three-dimensional shapes of the object 40 are included in the selection area to be extracted as design element data, the object 40 is recalled or specified by a person who views the design image using the element data. It becomes easy to be done. In view of this, in steps S43 to S44, the inner area from the outline 42 of the object 40 is divided into three-dimensional shape types, and the user selects an area within the divided partial area. As a result, the image of the selected region is made to be a feature abstract image. As a result, only one type of three-dimensional shape is included in this selected area, so that element data that makes it difficult for the person who viewed the design image to recall or identify the object 40 is reliably extracted. be able to.

ステップS44の後の処理は、図2のステップS18〜S22と同様に行う(ステップS45〜S49)。   The processing after step S44 is performed in the same manner as steps S18 to S22 in FIG. 2 (steps S45 to S49).

本実施形態によれば、デザインの要素データとして抽出されることとなる領域をユーザに選択させる前に、オブジェクトの輪郭から内側の領域を、オブジェクトの3次元形状に基づき区分けして、区分けされた部分領域内でユーザに領域を選択させるので、第1実施形態の効果に加えて、ユーザに領域を選択し直させることを防止して、ユーザの操作を簡単にすることができる。   According to the present embodiment, before allowing the user to select an area to be extracted as design element data, the inner area from the outline of the object is divided based on the three-dimensional shape of the object. Since the user selects a region within the partial region, in addition to the effects of the first embodiment, it is possible to prevent the user from reselecting the region and simplify the user's operation.

なお、図10のステップS44で、いずれか1つの部分領域の少なくとも一部分が選択された場合(ステップS44、Yes)、この選択領域の全部が、必ず、オブジェクト40の輪郭42から内側に存在することとなるので、図2のステップS14のようにわざわざ当該選択領域の全部がオブジェクト40の輪郭42から内側に存在するか否かの判断を行う必要はない。   In addition, when at least a part of any one of the partial areas is selected in step S44 of FIG. 10 (step S44, Yes), all of the selected areas must be present inside the outline 42 of the object 40. Therefore, it is not necessary to judge whether or not all of the selected area exists inside the outline 42 of the object 40 as in step S14 of FIG.

なお、図10の画像処理において、領域の区分けに関して行うステップS43の処理、領域の輪郭形状に関して行うステップS45の処理、並びに、領域の面積に関して行うステップS46の処理の、3つの処理うち、いずれか1つ又は2つを省略してもよい。また、これらのいずれか1つ以上の処理に代えて又は加えて、他の判断基準(例えば色彩等)に基づいて、選択領域の画像が特徴捨象画像であるか否かの判断を行うようにしてもよい。   In the image processing of FIG. 10, any one of the three processes of the process of step S <b> 43 performed regarding the segmentation of the area, the process of step S <b> 45 performed regarding the outline shape of the area, and the process of step S <b> 46 performed regarding the area of the area. One or two may be omitted. Further, instead of or in addition to any one or more of these processes, it is determined whether or not the image of the selected area is a feature-removed image based on other determination criteria (for example, color). May be.

また、図10のステップS46における選択領域の面積の判断は、ステップS45における選択領域の輪郭形状の判断の前に行ってもよい。   In addition, the determination of the area of the selection region in step S46 of FIG. 10 may be performed before the determination of the outline shape of the selection region in step S45.

(第3実施形態)
図12及び図13を主に参照して、本発明の第3実施形態を説明する。上述した第1及び第2実施形態は、オブジェクトの輪郭から内側の領域で、ユーザに領域を選択させた後に、この選択領域の画像が特徴捨象画像であると判断した場合に、当該選択領域を要素データとして抽出するものである。これに対して、第3実施形態は、ユーザに領域を選択させる前に、処理部が該領域の画像が特徴捨象画像であると判断した1以上の領域を、選択可能領域として表示部に表示させ、ユーザにいずれか一つ以上の選択可能領域を選択させて、選択された領域を要素データとして抽出するものである。これにより、ユーザは表示部に表示される1以上の選択可能領域を選ぶだけでよいので、ユーザの操作がさらに簡単になる。また、ユーザにより選択される領域の画像は必ず特徴捨象画像となるので、ユーザに領域を選択し直させることが確実に防止され、ユーザの操作をさらに簡単にすることができる。
なお、第3実施形態に係る画像処理装置の構成は、基本的に第1実施形態について図1を参照して説明した構成と同様である。
(Third embodiment)
A third embodiment of the present invention will be described with reference mainly to FIGS. In the first and second embodiments described above, when the user selects an area inside the outline of the object and then determines that the image of the selected area is a feature-separated image, the selected area is It is extracted as element data. On the other hand, in the third embodiment, before the user selects an area, one or more areas that the processing unit determines to be an image of feature separation are displayed on the display unit as selectable areas. Then, the user is allowed to select any one or more selectable areas, and the selected areas are extracted as element data. Thereby, since the user only has to select one or more selectable areas displayed on the display unit, the user's operation is further simplified. In addition, since the image of the area selected by the user is always a feature image, it is reliably prevented that the user reselects the area, and the user's operation can be further simplified.
The configuration of the image processing apparatus according to the third embodiment is basically the same as that described with reference to FIG. 1 for the first embodiment.

図12及び図13を主に参照して、本実施形態に係る画像処理装置10による画像処理の一例を説明する。なお、ここでは、第2実施形態について図10を参照して説明した画像処理と異なる部分を中心に説明する。
この画像処理は、処理部23が画像処理プログラム31を実行して行うものである。予め、この画像処理の開始前には、オブジェクトを表した1つ又は複数の画像データ30が記憶部20に記憶されている。
また、予め、この画像処理の開始前には、表示部22に表示させることとなる選択可能領域の数及び形状の設定情報が、記憶部20に記憶されている。本例では、当該設定情報として、長方形、三角形、円形及び八角形の選択可能領域がそれぞれ1個ずつ、表示部22に表示されることが、予め記憶部20に記憶されている。この設定情報は、この画像処理の開始前に、例えばユーザによる入力部21の操作によって入力される。
An example of image processing by the image processing apparatus 10 according to the present embodiment will be described mainly with reference to FIGS. Note that, here, the second embodiment will be described with a focus on differences from the image processing described with reference to FIG.
This image processing is performed by the processing unit 23 executing the image processing program 31. Prior to the start of this image processing, one or a plurality of image data 30 representing an object is stored in the storage unit 20 in advance.
Further, before the start of this image processing, setting information on the number and shape of selectable areas to be displayed on the display unit 22 is stored in the storage unit 20 in advance. In this example, as the setting information, it is stored in advance in the storage unit 20 that one selectable area of each of a rectangle, a triangle, a circle, and an octagon is displayed on the display unit 22. This setting information is input by, for example, an operation of the input unit 21 by the user before the start of the image processing.

画像処理プログラム31が起動された後、ユーザによる入力部21の操作によって、記憶部20に記憶された1つ又は複数の画像データ30のうちいずれかが選択されると、処理部23は、図3に示すように、選択された画像データ30を表示部22に表示させる(ステップS61)。   After the image processing program 31 is activated, when one of the image data 30 stored in the storage unit 20 is selected by the user's operation of the input unit 21, the processing unit 23 As shown in FIG. 3, the selected image data 30 is displayed on the display unit 22 (step S61).

ステップS61の後、処理部23は、表示部22に表示させている画像データ30におけるオブジェクト40と背景41との境界線をなすオブジェクト40の輪郭42を特定し、図4に示すように、表示部22に、オブジェクト40の輪郭42を画像データ30上に重ね合わせて表示させる(ステップS62)。   After step S61, the processing unit 23 identifies the outline 42 of the object 40 that forms the boundary line between the object 40 and the background 41 in the image data 30 displayed on the display unit 22, and displays the outline 42 as shown in FIG. The unit 42 displays the outline 42 of the object 40 superimposed on the image data 30 (step S62).

次に、処理部23は、画像データ30に基づいて特定されるオブジェクト40の3次元形状に基づいて、オブジェクト40の輪郭42から内側の領域を複数の部分領域へ区分けする(ステップS63)。ここで、図10のステップS43とは異なり、処理部23は、各部分領域の輪郭を、表示部22に、画像データ30上に重ね合わせて表示させない。   Next, the processing unit 23 divides the inner region from the contour 42 of the object 40 into a plurality of partial regions based on the three-dimensional shape of the object 40 specified based on the image data 30 (step S63). Here, unlike step S <b> 43 of FIG. 10, the processing unit 23 does not display the outlines of the partial areas on the display unit 22 so as to overlap the image data 30.

その後、処理部23は、図13に示すように、ステップS63で区分けされた少なくとも1つの部分領域内で、特徴捨象画像であると判断する1つ以上の領域を抽出し、特徴捨象画像であると判断した1つ以上の領域のそれぞれを選択可能領域A31〜A34として、表示部22に表示させる(ステップS64)。なお、本例における選択可能領域A31〜A34は、記憶部20に記憶された設定情報に基づき、それぞれ長方形、三角形、円形及び八角形の輪郭を有するものである。
ここで、特徴捨象画像であるか否かの判断において、処理部は、図2のステップS18及びS19と同様に、ある領域の輪郭形状がオブジェクト40の輪郭42の形状と非相似であり、かつ、当該領域の面積が所定範囲内である場合に、当該領域が特徴捨象画像であると判断する。当該領域の面積と比較される「所定範囲」とは、オブジェクト40の輪郭42の内側の領域の面積の0.001〜90%の範囲に設定することが好ましく、オブジェクト40の輪郭42の内側の領域の面積の0.1〜50%の範囲に設定することがさらに好ましい。
なお、「少なくとも1つの部分領域内」とは、当該部分領域の輪郭よりも内側の領域と、当該部分領域の輪郭とを含む。
表示部22に表示される各選択可能領域A31〜A34の具体的な位置及び大きさについては、処理部23が、上述した各条件を満たす範囲において、各選択可能領域A31〜A34どうしが重なり合わないように、ランダムに決定する。
Thereafter, as illustrated in FIG. 13, the processing unit 23 extracts one or more regions that are determined to be feature-removed images from at least one partial region classified in step S <b> 63, and is a feature-removed image. Each of the one or more areas determined to be displayed as selectable areas A31 to A34 is displayed on the display unit 22 (step S64). Note that the selectable areas A31 to A34 in this example have rectangular, triangular, circular, and octagonal outlines based on the setting information stored in the storage unit 20, respectively.
Here, in determining whether or not the image is a feature-absent image, the processing unit determines that the contour shape of a certain region is not similar to the shape of the contour 42 of the object 40, as in steps S18 and S19 of FIG. When the area of the area is within a predetermined range, it is determined that the area is a feature-excluded image. The “predetermined range” to be compared with the area of the area is preferably set to a range of 0.001 to 90% of the area of the area inside the outline 42 of the object 40. More preferably, it is set to a range of 0.1 to 50% of the area of the region.
Note that “within at least one partial region” includes a region inside the contour of the partial region and the contour of the partial region.
Regarding specific positions and sizes of the selectable areas A31 to A34 displayed on the display unit 22, the selectable areas A31 to A34 overlap each other in a range in which the processing unit 23 satisfies the above-described conditions. Decide at random so that there is no.

ステップS64の後、処理部23は、ユーザによる入力部21の操作によって、表示部22に表示させている1つ以上の選択可能領域A31〜A34のうち、少なくとも1つが選択されるまで待機する(ステップS65、No)。少なくとも1つの選択可能領域A31〜A34が選択されると(ステップS65、Yes)、処理部23は、選択された各領域(選択領域)をそれぞれ要素データとして抽出する(ステップS66)。その後、処理部23は、ユーザによる入力部21の操作に従って、ステップS66で抽出した各要素データを用いて他の画像データ(デザイン画像データ)を作成して(ステップS67)、処理を終了する。   After step S64, the processing unit 23 stands by until at least one of the one or more selectable areas A31 to A34 displayed on the display unit 22 is selected by the operation of the input unit 21 by the user ( Step S65, No). When at least one selectable area A31 to A34 is selected (step S65, Yes), the processing unit 23 extracts each selected area (selected area) as element data (step S66). Thereafter, the processing unit 23 creates other image data (design image data) using each element data extracted in step S66 according to the operation of the input unit 21 by the user (step S67), and ends the processing.

本実施形態によれば、デザインの要素データとして抽出されることとなる領域をユーザに選択させる前に、特徴捨象画像であると判断した1以上の領域を、選択可能領域として表示部に表示させ、表示部に表示させた選択可能領域のいずれか一つ以上をユーザに選択させて、選択された領域を要素データとして抽出するものである。これにより、ユーザは表示部に表示される1以上の選択可能領域を選ぶだけでよいので、ユーザの操作がさらに簡単になる。また、ユーザにより選択される領域の画像は必ず特徴捨象画像であるので、第1及び第2実施形態の効果に加えて、ユーザに領域を選択し直させることが確実に防止され、ユーザの操作をさらに簡単にすることができる。   According to this embodiment, before allowing the user to select a region to be extracted as design element data, one or more regions determined to be feature-removed images are displayed on the display unit as selectable regions. The user selects any one or more of the selectable areas displayed on the display unit, and extracts the selected area as element data. Thereby, since the user only has to select one or more selectable areas displayed on the display unit, the user's operation is further simplified. In addition to the effects of the first and second embodiments, the image of the area selected by the user is surely prevented from causing the user to reselect the area. Can be further simplified.

なお、図12のステップS63において、各部分領域の輪郭を、表示部22に、画像データ30上に重ね合わせて表示させないことにより、ユーザが各選択可能領域A31〜A34の輪郭を、各部分領域の輪郭と混同することが防止されるので、ユーザの操作を簡単にすることができる。
ただし、図12のステップS63において、図11に示すように、各部分領域の輪郭を、表示部22に、画像データ30上に重ね合わせて表示させてもよい。
In step S63 in FIG. 12, the contour of each partial area is not displayed on the display unit 22 so as to overlap the image data 30, so that the user can select the outline of each selectable area A31 to A34. Therefore, the user's operation can be simplified.
However, in step S63 of FIG. 12, the outline of each partial area may be displayed on the display unit 22 so as to be superimposed on the image data 30, as shown in FIG.

なお、図12の画像処理において、領域の区分けに関して行うステップS63の処理や、ステップS64で選択領域の輪郭形状に関して行う判断、及びステップS64で選択領域の面積に関して行う判断のうち、いずれか1つ又は2つを省略してもよい。また、これらのいずれか1つ以上の処理又は判断に代えて又は加えて、他の判断基準(例えば色彩等)に基づいて、選択領域の画像が特徴捨象画像であるか否かの判断を行うようにしてもよい。   In the image processing of FIG. 12, any one of the processing in step S63 performed regarding the segmentation of the region, the determination performed regarding the outline shape of the selection region in step S64, and the determination performed regarding the area of the selection region in step S64. Or two may be omitted. Further, instead of or in addition to any one or more of these processes or determinations, a determination is made as to whether or not the image in the selected region is a feature cut-out image based on other determination criteria (for example, color). You may do it.

なお、上述した各実施形態では、画像処理装置10が、デザインの要素データとして抽出されることとなる画像が特徴捨象画像であるか否かの判断を行うが、同様の判断を人間が行ってもよい。   In each of the above-described embodiments, the image processing apparatus 10 determines whether an image to be extracted as design element data is a feature-separated image, but a human performs the same determination. Also good.

本発明は、衣類、傘、メガネ、カバン、財布等の雑貨、自動車、テレビ、PC、照明のフード等の、任意の工業製品や建築物に施されたり、当該工業製品や建築物に貼られる装飾用シール等に施される、デザイン画像を作成する際に利用することができる。   The present invention can be applied to any industrial product or building such as clothing, umbrellas, glasses, bags, wallets and other miscellaneous goods, automobiles, televisions, PCs, lighting hoods, and the like, and can be applied to the industrial products and buildings. It can be used when creating a design image applied to a decorative sticker or the like.

10:画像処理装置、 20:記憶部、 21:入力部、 22:表示部、 23:処理部、 30:画像データ、 31:画像処理プログラム、 40:オブジェクト、 41:背景、 42:オブジェクトの輪郭、 43:要素データ、 44:他の画像データ(デザイン画像データ)、 A1:第1の選択領域(選択領域)、 A2、A3、A11〜A20:部分領域、 A4:第2の選択領域(選択領域)、 A31〜A34:選択可能領域 10: Image processing device, 20: Storage unit, 21: Input unit, 22: Display unit, 23: Processing unit, 30: Image data, 31: Image processing program, 40: Object, 41: Background, 42: Outline of object 43: Element data 44: Other image data (design image data) A1: First selection area (selection area) A2, A3, A11-A20: Partial area A4: Second selection area (selection) Area), A31 to A34: selectable area

Claims (9)

オブジェクトの画像データを記憶する記憶部と、入力部と、表示部と、処理部と、を備えた画像処理装置を用いて行う、画像処理方法であって、
前記処理部が、前記表示部に、前記オブジェクトを画像データとして表示させる画像データ表示ステップと、
前記入力部の操作によって、前記表示部に表示された前記オブジェクトの輪郭から内側の領域が選択領域として選択されると、前記処理部が所定の判断基準に従って前記選択領域の画像が前記オブジェクトの特徴を捨象した特徴捨象画像であると判断した場合に、前記処理部が、前記選択領域を要素データとして抽出する要素データ抽出ステップと、
前記要素データ抽出ステップの前に、前記処理部が、前記表示部に表示された前記オブジェクトの輪郭から内側の領域を、前記画像データに基づき特定される前記オブジェクトの3次元形状に基づいて、複数の部分領域に区分けする区分けステップと、
を含み、
前記要素データ抽出ステップにおいて、前記処理部は、前記選択領域がいずれか1つの前記部分領域の少なくとも一部であり、かつ、前記選択領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似である場合に、前記選択領域の画像が前記特徴捨象画像であると判断することを特徴とする、画像処理方法。
An image processing method performed using an image processing apparatus including a storage unit that stores image data of an object, an input unit, a display unit, and a processing unit,
An image data display step in which the processing unit causes the display unit to display the object as image data;
When a region inside the outline of the object displayed on the display unit is selected as a selection region by the operation of the input unit, the processing unit displays an image of the selection region according to a predetermined determination criterion. Element data extraction step for extracting the selected area as element data when it is determined that the image is a feature-separated image.
Prior to the element data extraction step, the processing unit includes a plurality of regions inside the outline of the object displayed on the display unit based on the three-dimensional shape of the object specified based on the image data. A step of dividing into subregions of
Including
In the element data extraction step, the processing unit is configured such that the selection area is at least a part of any one of the partial areas, and the outline shape of the selection area is dissimilar to the outline shape of the object. In some cases, it is determined that an image in the selected area is the feature-abstracted image.
前記要素データ抽出ステップにおいて、前記処理部は、前記選択領域がいずれか1つの前記部分領域の少なくとも一部であり、前記選択領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似であり、かつ、前記選択領域の面積が前記オブジェクトの面積の0.001〜90%である場合に、前記選択領域の画像が前記特徴捨象画像であると判断する、請求項に記載の画像処理方法。 In the element data extraction step, the processing unit is configured such that the selection area is at least a part of any one of the partial areas, and the outline shape of the selection area is dissimilar to the outline shape of the object, and, when the area of the selected region is 0.001 to 90% of the area of the object, the image of the selected area is determined to be the feature abstracted image, the image processing method according to claim 1. オブジェクトの画像データを記憶する記憶部と、入力部と、表示部と、処理部と、を備えた画像処理装置を用いて行う、画像処理方法であって、
前記処理部が、前記表示部に、前記オブジェクトを画像データとして表示させる画像データ表示ステップと、
前記処理部が、前記表示部に表示された前記オブジェクトの輪郭から内側の領域を、前記画像データに基づき特定される前記オブジェクトの3次元形状に基づいて、複数の部分領域に区分けする区分けステップと、
前記処理部が、前記表示部に、少なくとも1つの前記部分領域内の領域であって、前記処理部が所定の判断基準に従って該領域の画像が前記オブジェクトの特徴を捨象した特徴捨象画像であると判断した1以上の領域を、選択可能領域として表示させる、選択可能領域表示ステップと、
前記入力部の操作によっていずれか一つ以上の前記選択可能領域が選択領域として選択されると、前記処理部が、前記選択領域を要素データとして抽出する要素データ抽出ステップと、を含み、
前記選択可能領域表示ステップにおいて、前記処理部は、前記領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似である場合に、前記領域の画像が前記特徴捨象画像であると判断することを特徴とする、画像処理方法。
An image processing method performed using an image processing apparatus including a storage unit that stores image data of an object, an input unit, a display unit, and a processing unit,
An image data display step in which the processing unit causes the display unit to display the object as image data;
A classification step in which the processing unit divides a region inside the outline of the object displayed on the display unit into a plurality of partial regions based on a three-dimensional shape of the object specified based on the image data; ,
The processing unit is an area in at least one of the partial areas on the display unit, and the processing unit is a feature cut-out image in which the image of the area is cut out according to a predetermined criterion. A selectable area display step of displaying the determined one or more areas as selectable areas;
When any one or more of the selectable areas are selected as a selection area by an operation of the input unit, the processing unit includes an element data extraction step of extracting the selection area as element data,
In the selectable area display step, the processing unit determines that the image of the area is the feature-separated image when the outline shape of the area is dissimilar to the outline shape of the object. A characteristic image processing method.
前記選択可能領域表示ステップにおいて、前記処理部は、前記領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似であり、かつ、前記領域の面積が前記オブジェクトの面積の0.001〜90%である場合に、前記領域の画像が前記特徴捨象画像であると判断する、請求項に記載の画像処理方法。 In the selectable area display step, the processing unit is configured such that the outline shape of the area is not similar to the outline shape of the object, and the area of the area is 0.001 to 90% of the area of the object. 4. The image processing method according to claim 3 , wherein the image of the region is determined to be the feature image. 前記処理部が、前記入力部の操作に従って、前記要素データを用いて他の画像データを作成する画像データ作成ステップをさらに含む、請求項1〜のいずれか一項に記載の画像処理方法。 Wherein the processing unit is, in accordance with the operation of the input unit, by using the element data further includes image data creation step of creating another image data, the image processing method according to any one of claims 1-4. 前記画像データ作成ステップにおいて、前記処理部は、前記要素データとして抽出された前記選択領域の画像を、1000倍までの範囲で拡大させ、または、0.01倍までの範囲で縮小させた画像のデータを用いて前記他の画像データを作成する、請求項に記載の画像処理方法。 In the image data creation step, the processing unit enlarges the image of the selection area extracted as the element data up to 1000 times or reduces the image up to 0.01 times. The image processing method according to claim 5 , wherein the other image data is created using data. オブジェクトの画像データを記憶する記憶部と、入力部と、表示部と、処理部と、を備えた画像処理装置における、前記処理部に実行させる、画像処理プログラムであって、
前記処理部が、前記表示部に、前記オブジェクトを画像データとして表示させる画像データ表示ステップと、
前記入力部の操作によって、前記表示部に表示された前記オブジェクトの輪郭から内側の領域が選択領域として選択されると、前記処理部が所定の判断基準に従って前記選択領域の画像が前記オブジェクトの特徴を捨象した特徴捨象画像であると判断した場合に、前記処理部が、前記選択領域を要素データとして抽出する要素データ抽出ステップと、
前記要素データ抽出ステップの前に、前記処理部が、前記表示部に表示された前記オブジェクトの輪郭から内側の領域を、前記画像データに基づき特定される前記オブジェクトの3次元形状に基づいて、複数の部分領域に区分けする区分けステップと、
を前記処理部に実行させるように構成されており、
前記要素データ抽出ステップにおいて、前記選択領域がいずれか1つの前記部分領域の少なくとも一部であり、かつ、前記選択領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似である場合に、前記選択領域の画像が前記特徴捨象画像であると、前記処理部に判断させることを特徴とする、画像処理プログラム。
An image processing program to be executed by the processing unit in an image processing apparatus including a storage unit that stores image data of an object, an input unit, a display unit, and a processing unit,
An image data display step in which the processing unit causes the display unit to display the object as image data;
When a region inside the outline of the object displayed on the display unit is selected as a selection region by the operation of the input unit, the processing unit displays an image of the selection region according to a predetermined determination criterion. Element data extraction step for extracting the selected area as element data when it is determined that the image is a feature-separated image.
Prior to the element data extraction step, the processing unit includes a plurality of regions inside the outline of the object displayed on the display unit based on the three-dimensional shape of the object specified based on the image data. A step of dividing into subregions of
Is configured to cause the processing unit to execute,
In the element data extraction step, when the selection area is at least a part of any one of the partial areas, and the outline shape of the selection area is not similar to the outline shape of the object, An image processing program that causes the processing unit to determine that an image in a selected area is the feature-abstracted image.
オブジェクトの画像データを記憶する記憶部と、入力部と、表示部と、処理部と、を備えた画像処理装置における、前記処理部に実行させる、画像処理プログラムであって、
前記処理部が、前記表示部に、前記オブジェクトを画像データとして表示させる画像データ表示ステップと、
前記処理部が、前記表示部に表示された前記オブジェクトの輪郭から内側の領域を、前記画像データに基づき特定される前記オブジェクトの3次元形状に基づいて、複数の部分領域に区分けする区分けステップと、
前記処理部が、前記表示部に、少なくとも1つの前記部分領域内の領域であって、前記処理部が所定の判断基準に従って該領域の画像が前記オブジェクトの特徴を捨象した特徴捨象画像であると判断した1以上の領域を、選択可能領域として表示させる、選択可能領域表示ステップと、
前記入力部の操作によっていずれか一つ以上の前記選択可能領域が選択領域として選択されると、前記処理部が、前記選択領域を要素データとして抽出する要素データ抽出ステップと、
を前記処理部に実行させるように構成されており、
前記選択可能領域表示ステップにおいて、前記領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似である場合に、前記領域の画像が前記特徴捨象画像であると、前記処理部に判断させることを特徴とする、画像処理プログラム。
An image processing program to be executed by the processing unit in an image processing apparatus including a storage unit that stores image data of an object, an input unit, a display unit, and a processing unit,
An image data display step in which the processing unit causes the display unit to display the object as image data;
A classification step in which the processing unit divides a region inside the outline of the object displayed on the display unit into a plurality of partial regions based on a three-dimensional shape of the object specified based on the image data; ,
The processing unit is an area in at least one of the partial areas on the display unit, and the processing unit is a feature cut-out image in which the image of the area is cut out according to a predetermined criterion. A selectable area display step of displaying the determined one or more areas as selectable areas;
When any one or more of the selectable areas are selected as a selection area by an operation of the input unit, the processing unit extracts an element data extraction step of extracting the selection area as element data;
Is configured to cause the processing unit to execute,
In the selectable area display step, when the shape of the outline of the area is dissimilar to the shape of the outline of the object, the processing unit is caused to determine that the image of the area is the feature cut-out image. A featured image processing program.
オブジェクトの画像データを記憶する記憶部と、
入力部と、
表示部と、
請求項又はに記載の画像処理プログラムを実行する処理部と、
を備えたことを特徴とする、画像処理装置。
A storage unit for storing image data of the object;
An input section;
A display unit;
A processing unit that executes the image processing program according to claim 7 or 8 ,
An image processing apparatus comprising:
JP2013269898A 2013-12-26 2013-12-26 Image processing method, image processing program, image processing apparatus, and industrial product Active JP6371521B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013269898A JP6371521B2 (en) 2013-12-26 2013-12-26 Image processing method, image processing program, image processing apparatus, and industrial product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013269898A JP6371521B2 (en) 2013-12-26 2013-12-26 Image processing method, image processing program, image processing apparatus, and industrial product

Publications (2)

Publication Number Publication Date
JP2015125609A JP2015125609A (en) 2015-07-06
JP6371521B2 true JP6371521B2 (en) 2018-08-08

Family

ID=53536269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013269898A Active JP6371521B2 (en) 2013-12-26 2013-12-26 Image processing method, image processing program, image processing apparatus, and industrial product

Country Status (1)

Country Link
JP (1) JP6371521B2 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04117579A (en) * 1990-09-07 1992-04-17 Ricoh Co Ltd Hatching area extracting method
JP4578767B2 (en) * 2002-11-08 2010-11-10 パナソニック株式会社 Object recognition device and object recognition program
JP3096180U (en) * 2003-02-27 2003-09-05 清原株式会社 Scarf
US7426302B2 (en) * 2003-11-28 2008-09-16 John Amico System and method for digitizing a pattern
JP2005196702A (en) * 2004-01-09 2005-07-21 Hitachi Software Eng Co Ltd Program capable of dividing image and image dividing method
US7865000B2 (en) * 2004-06-10 2011-01-04 Kurume University Medical image processing apparatus for analyzing properties of living body based on image data thereof
JP4712659B2 (en) * 2006-09-22 2011-06-29 富士フイルム株式会社 Image evaluation apparatus and program thereof
JP4804382B2 (en) * 2007-03-05 2011-11-02 シャープ株式会社 Image processing method, image processing program, and image processing apparatus
JP2013048405A (en) * 2011-07-22 2013-03-07 Nikon Corp Area extraction device, imaging device, and area extraction program

Also Published As

Publication number Publication date
JP2015125609A (en) 2015-07-06

Similar Documents

Publication Publication Date Title
USD892149S1 (en) Display screen or a portion thereof with an animated graphical user interface
US10304408B2 (en) Method and apparatus for changing background color of toolbar with dominant color of picture
JP6292884B2 (en) Using infrared photography to generate digital images for product customization
CN109784281A (en) Products Show method, apparatus and computer equipment based on face characteristic
WO2017088340A1 (en) Method and apparatus for processing image information, and computer storage medium
CN110390632B (en) Image processing method and device based on dressing template, storage medium and terminal
USD892829S1 (en) Display screen or a portion thereof with an animated graphical user interface
US20130169827A1 (en) Method and system for make-up simulation on portable devices having digital cameras
CN109377537B (en) Style transfer method for heavy color painting
JP2009527053A5 (en)
US20160227854A1 (en) Methods For Producing Garments And Garment Designs
CN105447125A (en) Electronic equipment and makeup assisting method
WO2018189802A1 (en) Image processing device, image processing method, and program
CN106203286A (en) The content acquisition method of a kind of augmented reality, device and mobile terminal
US20190347832A1 (en) Makeup simulation device, method, and non-transitory recording medium
JP7242165B2 (en) Program, Information Processing Apparatus, and Method
CN105468617B (en) Adjust the method and device of web page contents color
WO2020104990A1 (en) Virtually trying cloths &amp; accessories on body model
CN110084871A (en) Image typesetting process and device, electric terminal
WO2015184903A1 (en) Picture processing method and device
JP6371521B2 (en) Image processing method, image processing program, image processing apparatus, and industrial product
JP2010506329A (en) Graphical user interface
ES2936486T3 (en) Method and product computer program for processing model data of a set of garments
CN111640190A (en) AR effect presentation method and apparatus, electronic device and storage medium
JP2017188071A (en) Pattern change simulation device, pattern change simulation method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180528

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180713

R150 Certificate of patent or registration of utility model

Ref document number: 6371521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250