JP2015125609A - 画像処理方法、画像処理プログラム、画像処理装置及び工業製品 - Google Patents

画像処理方法、画像処理プログラム、画像処理装置及び工業製品 Download PDF

Info

Publication number
JP2015125609A
JP2015125609A JP2013269898A JP2013269898A JP2015125609A JP 2015125609 A JP2015125609 A JP 2015125609A JP 2013269898 A JP2013269898 A JP 2013269898A JP 2013269898 A JP2013269898 A JP 2013269898A JP 2015125609 A JP2015125609 A JP 2015125609A
Authority
JP
Japan
Prior art keywords
image
area
unit
processing unit
element data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013269898A
Other languages
English (en)
Other versions
JP6371521B2 (ja
Inventor
倉地 育夫
Ikuo Kurachi
育夫 倉地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KENSYU CO Ltd
Original Assignee
KENSYU CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KENSYU CO Ltd filed Critical KENSYU CO Ltd
Priority to JP2013269898A priority Critical patent/JP6371521B2/ja
Publication of JP2015125609A publication Critical patent/JP2015125609A/ja
Application granted granted Critical
Publication of JP6371521B2 publication Critical patent/JP6371521B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像を創り出すことを可能にする。
【解決手段】
本発明の画像処理方法は、オブジェクト40の画像データ30を記憶する記憶部20と、入力部21と、表示部22と、処理部23と、を備えた画像処理装置10を用いて行う、画像処理方法であって、処理部23が、表示部22に、オブジェクト40を画像データ30として表示させる画像データ表示ステップと、入力部21の操作によって、表示部22に表示されたオブジェクト40の輪郭42から内側の領域が選択領域A4として選択されると、処理部23が所定の判断基準に従って選択領域A4の画像がオブジェクト40の特徴を捨象した特徴捨象画像であると判断した場合に、処理部23が、選択領域A4を要素データとして抽出する要素データ抽出ステップと、を含む。
【選択図】図7

Description

本発明は、画像処理方法、画像処理プログラム、画像処理装置及び工業製品に関するものである。
衣類や日用品、雑貨、その他工業製品には、装飾のために色とりどりのデザインが施されている。デザインの多くは、専門の能力を有するデザイナーの手により独自の新しいデザインが提案され、商品の機能性と同様に消費者の購買意欲を高めている。消費者の目に触れる商品のデザインを考案する方法については様々であるが、独自性が高い優れたデザインは、才能豊かなデザイナーにより生み出されている。デザインの考案方法として、地球上に存在する物体(オブジェクト)を基にそれを美的に加工しデザインとして用いる方法がある。すなわち、身の回りに存在するオブジェクト、例えば生物や風景を題材にしたデザインでは、才能豊かなデザイナーによりデフォルメされ、美しく加工されたデザインが、商品の装飾として使用されている。昆虫などの生物でもデフォルメされてデザインとして成功している例が存在し、森英恵氏のデザインによる蝶をモチーフにした作品の数々は、ハンカチーフからバッグやドレスまで主に婦人用商品に多く使用されている。また雪の顕微鏡写真から考案されたデザインは、企業のマークにまでなっている例も存在する。これらは、オブジェクトの姿(イメージ)を残し、デザインからそのイメージを伝え、美しさをより際立たせるという手法を使っている。例えば蝶の中には醜い蛾も存在するが、醜いオブジェクトは森英恵氏のデザインに使われていない。美しい蝶を題材に、実物より美しいデザインを生み出して成功している。このように実際に存在するオブジェクトをモデルにして、オブジェクトのイメージを残して加工することで、独自性が高く美しいデザインが専門のデザイナーの手により創り出されている。
しかしながら、工業製品等の物品の装飾のために独自性が高く美しいデザインを創り出すことができるのは、専門教育を受けた者等、高いデザイン能力を有する者に殆ど限られているのが表状である。したがって、これらに該当しないような例えばデザインの初心者でも、独自性が高く美しいデザインを簡単に創り出すことができるような技術が望まれている。
かかる点に鑑みてなされた本発明の課題は、ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像を創り出すことを可能にする、画像処理方法、画像処理プログラム及び画像処理装置を提供すること、並びに、誰でも簡単に、独自性が高く美しいデザインが施されてなる工業製品を提供することにある。
本発明の画像処理方法は、
オブジェクトの画像データを記憶する記憶部と、入力部と、表示部と、処理部と、を備えた画像処理装置を用いて行う、画像処理方法であって、
前記処理部が、前記表示部に、前記オブジェクトを画像データとして表示させる画像データ表示ステップと、
前記入力部の操作によって、前記表示部に表示された前記オブジェクトの輪郭から内側の領域が選択領域として選択されると、前記処理部が所定の判断基準に従って前記選択領域の画像が前記オブジェクトの特徴を捨象した特徴捨象画像であると判断した場合に、前記処理部が、前記選択領域を要素データとして抽出する要素データ抽出ステップと、
を含むことを特徴とする。
この構成によれば、ユーザは、高いデザイン能力を要するデフォルメ加工をすることなく、要素データをそのまま用いるだけで、独自性が高く美しいデザイン画像を簡単に創出することができる。すなわち、ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像を創り出すことが可能になる。
本発明の画像処理方法では、前記要素データ抽出ステップにおいて、前記処理部は、前記選択領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似である場合に、前記選択領域の画像が前記特徴捨象画像であると判断することが好ましい。
この構成によれば、デザイン画像を観た者によってオブジェクトが想起又は特定されにくいような要素データを、確実に抽出することができるので、ユーザは、より独自性が高く美しいデザイン画像を創出することができる。
本発明の画像処理方法では、前記要素データ抽出ステップにおいて、前記処理部は、前記選択領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似であり、かつ、前記選択領域の面積が前記オブジェクトの面積の0.001〜90%である場合に、前記選択領域の画像が前記特徴捨象画像であると判断することが好ましい。
この構成によれば、デザイン画像を観た者によってオブジェクトがより想起又は特定されにくいような要素データを、確実に抽出することができるとともに、要素データに十分な量のデザイン素材を含めることができるので、ユーザは、より独自性が高く美しいデザイン画像を創出することができる。
本発明の画像処理方法は、
前記要素データ抽出ステップの前に、前記表示部に表示された前記オブジェクトの輪郭から内側の領域を、前記画像データに基づき特定される前記オブジェクトの3次元形状に基づいて、複数の部分領域に区分けする区分けステップをさらに含み、
前記要素データ抽出ステップにおいて、前記処理部は、前記選択領域がいずれか1つの前記部分領域の少なくとも一部であり、かつ、前記選択領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似である場合に、前記選択領域の画像が前記特徴捨象画像であると判断することが好ましい。
この構成によれば、デザイン画像を観た者によってオブジェクトがより想起又は特定されにくいような要素データを、確実に抽出することができることができる。
本発明の画像処理方法は、
前記要素データ抽出ステップの前に、前記表示部に表示された前記オブジェクトの輪郭から内側の領域を、前記画像データに基づき特定される前記オブジェクトの3次元形状に基づいて複数の部分領域に区分けする区分けステップをさらに含み、
前記要素データ抽出ステップにおいて、前記処理部は、前記選択領域がいずれか1つの前記部分領域の少なくとも一部であり、前記選択領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似であり、かつ、前記選択領域の面積が前記オブジェクトの面積の0.001〜90%である場合に、前記選択領域の画像が前記特徴捨象画像であると判断することが好ましい。
この構成によれば、デザイン画像を観た者によってオブジェクトがより想起又は特定されにくいような要素データを、確実に抽出することができるとともに、要素データに十分な量のデザイン素材を含めることができるので、ユーザは、より独自性が高く美しいデザイン画像を創出することができる。
本発明の他の画像処理方法は、
オブジェクトの画像データを記憶する記憶部と、入力部と、表示部と、処理部と、を備えた画像処理装置を用いて行う、画像処理方法であって、
前記処理部が、前記表示部に、前記オブジェクトを画像データとして表示させる画像データ表示ステップと、
前記処理部が、前記表示部に、前記表示部に表示された前記オブジェクトの輪郭から内側の領域であって、前記処理部が所定の判断基準に従って該領域の画像が前記オブジェクトの特徴を捨象した特徴捨象画像であると判断した1以上の領域を、選択可能領域として表示させる、選択可能領域表示ステップと、
前記入力部の操作によっていずれか一つ以上の前記選択可能領域が選択領域として選択されると、前記処理部が、前記選択領域を要素データとして抽出する要素データ抽出ステップと、
を含むことを特徴とする。
この構成によれば、ユーザは、高いデザイン能力を要するデフォルメ加工をすることなく、要素データをそのまま用いるだけで、独自性が高く美しいデザイン画像を簡単に創出することができる。すなわち、ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像を創り出すことが可能になる。さらに、ユーザの操作を簡単にすることができる。
本発明の他の画像処理方法では、前記選択可能領域表示ステップにおいて、前記処理部は、前記領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似であり、かつ、前記領域の面積が前記オブジェクトの面積の0.001〜90%である場合に、前記領域の画像が前記特徴捨象画像であると判断することが好ましい。
この構成によれば、デザイン画像を観た者によってオブジェクトが想起又は特定されにくいような要素データを、確実に抽出することができるとともに、要素データに十分な量のデザイン素材を含めることができるので、ユーザは、より独自性が高く美しいデザイン画像を創出することができる。
本発明の画像処理方法又は本発明の他の画像処理方法において、前記処理部が、前記入力部の操作に従って、前記要素データを用いて他の画像データを作成する画像データ作成ステップをさらに含むことが好ましい。
この構成によれば、要素データの画像をそのままデザイン画像として用いる場合と比べて、デザイン画像を観た者によってオブジェクトがさらに想起又は特定されにくいようなデザイン画像を創り出すことができる。
本発明の画像処理方法又は本発明の他の画像処理方法における、前記画像データ作成ステップにおいて、前記処理部は、前記要素データとして抽出された前記選択領域の画像を、1000倍までの範囲で拡大させ、または、0.01倍までの範囲で縮小させた画像のデータを用いて前記他の画像データを作成することが好ましい。
この構成によれば、要素データの画像をそのままデザイン画像として用いる場合と比べて、デザイン画像を観た者によってオブジェクトがさらに想起又は特定されにくいようなデザイン画像を創り出すことができる。
本発明の画像処理プログラムは、
オブジェクトの画像データを記憶する記憶部と、入力部と、表示部と、処理部と、を備えた画像処理装置における、前記処理部に実行させる、画像処理プログラムであって、
前記処理部が、前記表示部に、前記オブジェクトを画像データとして表示させる画像データ表示ステップと、
前記入力部の操作によって、前記表示部に表示された前記オブジェクトの輪郭から内側の領域が選択領域として選択されると、前記処理部が所定の判断基準に従って前記選択領域の画像が前記オブジェクトの特徴を捨象した特徴捨象画像であると判断した場合に、前記処理部が、前記選択領域を要素データとして抽出する要素データ抽出ステップと、
を前記処理部に実行させることを特徴とする。
この構成によれば、ユーザは、高いデザイン能力を要するデフォルメ加工をすることなく、要素データをそのまま用いるだけで、独自性が高く美しいデザイン画像を簡単に創出することができる。すなわち、ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像を創り出すことが可能になる。
本発明の画像処理装置は、
オブジェクトの画像データを記憶する記憶部と、
入力部と、
表示部と、
上記の画像処理プログラムを実行する処理部と、
を備えたことを特徴とする。
この構成によれば、ユーザは、高いデザイン能力を要するデフォルメ加工をすることなく、要素データをそのまま用いるだけで、独自性が高く美しいデザイン画像を簡単に創出することができる。すなわち、ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像を創り出すことが可能になる。
本発明の工業製品は、上記の画像処理方法を用いて抽出された前記要素データ、または、上記の画像処理方法を用いて作成された前記他の画像データに基づくデザインが、施されてなることを特徴とする。
この構成によれば、誰でも簡単に、独自性が高く美しいデザインが施されてなる工業製品を提供することができる。
本発明によれば、ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像を創り出すことを可能にする、画像処理方法、画像処理プログラム及び画像処理装置を提供すること、並びに、誰でも簡単に、独自性が高く美しいデザインが施されてなる工業製品を提供することができる。
本発明の画像処理装置の第1実施形態に係る構成を示す機能ブロック図である。 本発明の画像処理装置の第1実施形態に係る処理を示すフローチャートである。 図2の処理を実行中での表示部による表示例を示す図である。 図2の処理を実行中での表示部による表示例を示す図である。 図2の処理を実行中での表示部による表示例を示す図である。 図2の処理を実行中での表示部による表示例を示す図である。 図2の処理を実行中での表示部による表示例を示す図である。 要素データの例を示す図である。 図8の要素データを用いて作成されたデザイン画像データの例を示す図である。 本発明の画像処理装置の第2実施形態に係る処理を示すフローチャートである。 図10の処理を実行中での表示部による表示例を示す図である。 本発明の画像処理装置の第3実施形態に係る処理を示すフローチャートである。 図12の処理を実行中での表示部による表示例を示す図である。 要素データの他の例を示す図である。 図14の要素データに基づくデザインが施されてなるマフラーの例を示す図である。
本発明の実施形態を例示説明する前に、本発明の概要を説明する。
一般的に、人間が目で見て認識できる物体(オブジェクト)には、特定のオブジェクトであることを明確に示す属性(以下、「特定属性」という。)と、専門家から説明されなければそのオブジェクトの属性である、と認識できない隠れた属性(以下、「付加属性」という。)とがある。
オブジェクトを目で見た時に、そのオブジェクトを誰でも特定できる属性に外観の形状がある。あるいは複数の形状の組み合わせから一つのオブジェクトを特定できる場合もある。前者の例として、動物や植物等の生物は、そのオブジェクトと特定できる外観の特徴を持っている。後者の例として、風景は複数の組み合わせ、例えば森と川の組み合わせの特徴から特定の地域の風景と認識できる。このように目で見ることのできるオブジェクトではそのオブジェクトを特徴づける属性からオブジェクトを特定でき、またそのオブジェクトを特定できる属性を必ずオブジェクトは少なくとも一つあるいは少なくとも一組持っている。この属性が「特定属性」である。なお、本発明では、オブジェクト又はオブジェクトの「特定属性」を、オブジェクト又はオブジェクトの「特徴」という場合もある。
このようなオブジェクトの性質がある一方で、そのオブジェクトの属性であるにもかかわらず、日常その属性を使ってオブジェクトを認識していないために、専門家で無ければオブジェクトを特定することができない属性がある。この属性が「付加属性」である。例えば、虫の羽根の一部の模様を取り出した画像は、専門家でなければその画像が虫の画像の一部とは気がつかない。あるいは風景の一部として水しぶきの輝きを取り出した画像では、水しぶきの画像と認識できないだけでなく、その水しぶきがどこの風景であるかは、専門家でも認識できない場合もある。すなわち、特定のオブジェクトを想起させることはできないが、明らかにそのオブジェクトの属性である、というのが「付加属性」である。
オブジェクトの画像からデザインを創出する場合、オブジェクトの特定属性をデフォルメせずにそのままデザインとして用いると、デザインを観た者がオブジェクトを容易に想起又は特定してしまうため、デザインに高い独自性や美しさを持たせることができない。そこで、従来より、デザイナーは、オブジェクトの特定属性にデフォルメなどの加工を施すことで、独自性が高く美しいデザインを創出してきた。このデフォルメ加工は、デザイナー個人の能力の高さに依存する割合が多いことから、高いデザイン能力を持つ者でなければ、独自性が高く美しいデザインを創り出すことはできなかった。
本発明は、あるオブジェクトの画像から、オブジェクトの特定属性(特徴)を含まない、オブジェクトの付加属性だけで構成された部分の画像(特徴捨象画像)を、デザインの要素データとして抽出するものである。この要素データは、これを観た者によってオブジェクトが容易に想起又は特定されないような、画像データである。ユーザは、この要素データ自体をデフォルメせずにそのままデザインとしたり、複数の要素データを組み合わせて1つのデザインとするだけで、独自性が高く美しいデザイン画像を創り出すことができる。このように、本発明は、ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像を創り出すことを可能にするものである。
なお、本発明において「特徴捨象画像」とは、オブジェクトの特定属性(特徴)を含まない、オブジェクトの付加属性だけで構成された画像であり、言い換えれば、オブジェクトの特徴を捨象した画像である。
また、本発明において、「要素データ」とは、その電子データ自体を意味する場合以外にも、要素データに基づき表示される画像を意味する場合もある。
以下、本発明の実施形態について、図面を参照して例示説明する。
(第1実施形態)
図1〜図9は、本発明の第1実施形態を示すものである。まず、図1を参照して、本実施形態に係る画像処理装置10の構成を説明する。画像処理装置10は、例えばPC、タブレット端末、携帯電話、スマートフォン等を構成することができ、記憶部20と、入力部21と、表示部22と、処理部23とを、備えている。画像処理装置10は、一体的に構成されて1ユニットを形成してもよいし、記憶部20、入力部21、表示部22及び処理部23のうち少なくともいずれか1つが、画像処理装置10の他の部分と別体に構成されて、当該他の部分と有線通信又は無線通信が可能なように接続されてもよい。
記憶部20は、例えばRAM及びROMのうち少なくともいずれか一方を1つ又は複数有しており、オブジェクトを表した1つ又は複数の画像データ30や、処理部23が実行するための画像処理プログラム31等の、各種の情報を記憶する。
後述するように、本実施形態では、この画像データ30から、オブジェクトの特定属性を含まない、オブジェクトの付加属性だけで構成された部分の画像を要素データとして抽出し、この要素データをデフォルメせずに用いてデザイン画像データを作成することとなる。
画像データ30としては、例えば、デジタルカメラでオブジェクトを撮影するか、又は、オブジェクトを撮影したアナログ媒体すなわち紙等に印刷等されたオブジェクトの画像をスキャナーで読み取る等して、デジタル画像化されたものを用いる。
オブジェクトとしては、例えば、植物、昆虫、動物等の生物や、山、川、谷等の自然の風景や、建築物、自動車、半導体等の人工物等、表実に世に存在する又はしていたものであることが好ましいが、このようなものをそのまま描写した、手で描いた絵画や、ソフトウェアを用いて描いた絵画でもよい。
画像データ30におけるオブジェクト以外の部分(背景)は、オブジェクトとの区別が容易につくように、単一色で表れていることが好ましい。
画像データ30には、オブジェクトの全体像が含まれていることが最も好ましいが、オブジェクトの一部のみが含まれていてもよい。具体的には、画像データ30に含まれているオブジェクト部分の面積が、オブジェクト全体の投影面積に対して1/100000倍〜1倍であることが好ましく、1/100倍〜1倍であることがさらに好ましく、1倍であることが最も好ましい。オブジェクト全体に対する、画像データ30に含まれているオブジェクト部分の割合が大きくなるほど、デザインの要素データの候補となる画像情報が多くなるので、ユーザにとっての選択の自由度を上げることができる。逆に、画像データ30に含まれているオブジェクト部分の面積が、オブジェクト全体の投影面積に対して1/100000倍未満である場合、オブジェクトの特定属性(特徴)を初めからできるだけ画像データ30に含ませないようにできる点では有利だが、画像データ30には少量の画像情報しか含まれないので、ユーザにとっての選択の自由度を低下させるおそれがある。
なお、人の目に余り触れないようなオブジェクトを画像データ30のオブジェクトとすることが、独自性の高いデザイン画像を創出する観点からは好ましい。
処理部23は、1つ又は複数の中央処理装置(CPU)等で構成されており、記憶部20に記憶された画像処理プログラム31を実行して、入力部21、表示部22、記憶部20を含む、画像処理装置10の全体を制御する。
入力部21は、ユーザからの入力を受け付ける。入力部21は、例えば、マウス、キーパッド、ボタン、デジタルペン等で構成されてもよいし、表示部22とともに、タッチパネルを構成してもよい。
表示部22は、例えば液晶ディスプレイ(LCD)等で構成されており、記憶部20に記憶される画像データ30等の各種の情報を表示する。
次に、図2〜図9を参照して、本実施形態に係る画像処理装置10による画像処理の一例を説明する。なお、この画像処理は、処理部23が画像処理プログラム31を実行して行うものである。逆に言うと、画像処理プログラム31は、所定の各ステップを処理部23に実行させるものである。予め、この画像処理の開始前には、オブジェクトを表した1つ又は複数の画像データ30が記憶部20に記憶されている。
画像処理プログラム31が起動された後、ユーザによる入力部21の操作によって、記憶部20に記憶された1つ又は複数の画像データ30のうちいずれかが選択されると、処理部23は、図3に示すように、選択された画像データ30を表示部22に表示させる(ステップS11)。
なお、図3の画像データ30は、虫(和名:アラメミドリフトタマムシ:学名Sternocera pulchra)を沸騰したお湯に入れ、形を整えて標本とした後、この標本をオブジェクト40として、AF-S VR Micro-Nikkor 105mm f/2.8G IF-EDをとりつけたニコンD3で撮影して得たものである。表示部22に表示されている画像データ30のオブジェクト40は、アドビ システムズ株式会社製のPHOTOSHOP (登録商標) CS5.1を用いて、原寸の100倍に拡大されている。本例において、オブジェクト40(虫)の特定属性は、当該虫の触角及び歩脚等であり、当該虫における他の部分が付加属性である。
ステップS11の後、処理部23は、表示部22に表示させている画像データ30におけるオブジェクト40と背景41との境界線をなすオブジェクト40の輪郭42を特定し、図4に示すように、表示部22に、オブジェクト40の輪郭42を画像データ30上に重ね合わせて表示させる(ステップS12)。
ここで、処理部23は、オブジェクト40の輪郭42の特定を、画像データ30に基づいて自動で行ってもよいし、かつ/又は、ユーザに、表示部22に表示される画像データ30上で、入力部21によってオブジェクト40の輪郭42を指定させることにより行ってもよい。なお、画像データ30に基づいて自動でオブジェクト40の輪郭42を特定する方法としては、例えば、画像データ30のうちほぼ単一色で表れている部分又はピントぼけしている(鮮明でない)部分を背景41として特定して、それ以外の部分をオブジェクト40として特定することで、背景41とオブジェクト40との境界線をオブジェクト40の輪郭42として特定する方法等があるが、公知であるので詳細な説明を省略する。
なお、本発明において、「オブジェクト40の輪郭42」とは、画像データ30にオブジェクト40の一部のみが含まれていて、これによりオブジェクト40の一部が画像データ30の外縁上に位置する場合、画像データ30内に表れているオブジェクト40の輪郭と、画像データ30の外縁のうちオブジェクト40と重なる部分とからなるものとする。
次に、処理部23は、例えば表示部22に「デザイン素材とする領域を選択してください」というメッセージを表示させつつ、表示部22に表示される画像データ30内で、一部の領域が、ユーザによる入力部21の操作によって選択されるまで待機する(ステップS13、No)。画像データ30内で一部の領域が選択されると(ステップS13、Yes)、処理部23は、図5に示すように、選択された領域(以下、「第1の選択領域」という。)A1の輪郭を、表示部22に、画像データ30上に重ね合わせて表示させる。次に、処理部23は、第1の選択領域A1の少なくとも一部が、オブジェクト40の輪郭42よりも外側に存在する場合(ステップS14、No)、例えば表示部22に「オブジェクトの輪郭から内側で、デザイン素材とする領域を選択してください」というメッセージを表示させる等して、ユーザに案内を通知し(ステップS25)、ステップS13に戻って、再び一部の領域が選択されるまで待機する。
一方、第1の選択領域A1の全部が、オブジェクト40の輪郭42から内側に存在する場合(ステップS14、Yes)、処理部23は、画像データ30に基づいて特定されるオブジェクト40の3次元形状に基づいて、第1の選択領域A1を複数の部分領域へと区分け可能か否かを判断する(ステップS15)。
ここで、「輪郭42から内側」とは、輪郭42よりも内側の領域と、輪郭42とを含む。よって、「第1の選択領域A1の全部が、オブジェクト40の輪郭42から内側に存在する場合」とは、第1の選択領域A1の全部が、オブジェクト40の輪郭42よりも内側の領域内に存在する場合に限られず、第1の選択領域A1の輪郭の一部が、オブジェクト40の輪郭42の一部と重なる場合も含む。
また、「画像データ30に基づいて特定されるオブジェクト40の3次元形状」とは、例えば、画像データ30に写るオブジェクト40の光と影を特定することで把握できる表面粗さ等であり、その具体的な特定方法は公知であるので、詳細な説明を省略する。
ステップS15では、具体的に、例えば、第1の選択領域A1を単位面積毎に区画して、区画された各区画領域でのオブジェクト40の3次元形状(平均表面粗さ等)を数値化し、3次元形状の差異が所定値以上である2つの区画領域どうしが隣接する場合に、これら区画領域間で区分けできると判断する。そして、このように区分けできると判断した区画領域間の境界線どうしを連結させることにより、第1の選択領域A1を区分けするための区分け線を引くことができれば、第1の選択領域A1を複数の部分領域へと区分けできると判断する。
オブジェクト40の3次元形状の特定は、ステップS15以前である限りにおいて任意のタイミングで行ってよく、例えばステップS12の後に、オブジェクト40の輪郭42から内側の領域全体について行ってもよいし、あるいは、ステップS14の後に、第1の選択領域A1のみについて行ってもよい。
ステップS15で、区分けが可能と判断した場合(ステップS15、Yes)、処理部23は、図6に示すように、第1の選択領域A1内に区分け線を引く等して、当該領域A1を区分けして、各部分領域A2、A3の輪郭を、表示部22に、画像データ30上に重ね合わせて表示させる(ステップS16)。
その後、処理部23は、例えば表示部22に「区分けされた領域内で、再度、デザイン素材とする領域を選択してください」というメッセージを表示させつつ、いずれか1つの部分領域A2、A3の少なくとも一部分が選択されるまで待機する(ステップS17、No)。いずれか1つの部分領域A2、A3の少なくとも一部分が選択されると(ステップS17、Yes)、図7に示すように、選択された領域(以下、「第2の選択領域」という。)A4の輪郭を、表示部22に、画像データ30上に重ね合わせて表示させる。
なお、「いずれか1つの部分領域A2、A3の少なくとも一部分」とは、当該部分領域A2、A3の輪郭を含んでもよい。
ここで、デザインの要素データとして抽出されることとなる選択領域に、オブジェクト40の3次元形状が複数種類含まれると、この要素データを用いたデザイン画像を観る者によって、オブジェクト40が想起又は特定され易くなる。このことに鑑み、ステップS15〜S17では、最初に選択された第1の選択領域A1に、オブジェクト40の3次元形状が複数種類含まれる場合、第1の選択領域A1を3次元形状の種類毎に区分けして、区分けされた部分領域内で再度ユーザに領域を選択してもらうようにすることで、再び選択された第2の選択領域A4の画像が特徴捨象画像となるようにしている。これにより、第2の選択領域A4には、1種類のみの3次元形状が含まれることとなるので、デザイン画像を観た者によってオブジェクト40がより想起又は特定されにくいような要素データを、確実に抽出することができる。
ステップS17の後、処理部23は、第2の選択領域A4の輪郭の形状がオブジェクト40の輪郭42の形状と相似である場合(ステップS18、No)、及び/又は、第2の選択領域A4の面積が所定範囲を超えている場合(ステップS19、No)、例えば表示部22に「輪郭の形状がオブジェクトの輪郭の形状と非相似となるように、区分けされた領域内で、再度、デザイン素材とする領域を選択してください」というメッセージを表示させる等して、ユーザに案内を通知し(ステップS20)、ステップS17に戻って、再び一部の領域が選択されるまで待機する。
ここで、ステップS18では、具体的に、第2の選択領域A4の輪郭の形状を、拡大若しくは縮小、平行移動、回転、及び/又は反転させることで、オブジェクト40の輪郭42の形状と重なるようにすることができる場合に、両形状が「相似」であると判断する。ここで、両形状が完全に重ならくても、両形状間のずれが所定範囲内である場合に、両形状が「相似」である判断してもよい。第2の選択領域A4の輪郭の形状がオブジェクト40の輪郭42の形状と相似であると、デザインの要素データとして抽出されることとなる第2の選択領域A4の輪郭形状から、オブジェクトが想起又は特定され易くなるので、好ましくない。ステップS18を設け、これによって第2の選択領域A4の画像が特徴捨象画像か否かを判断することにより、要素データ又はこれを用いて作成されたデザイン画像データを観た者によって、オブジェクト40がより想起又は特定されにくいような要素データを、確実に抽出することができるので、ユーザは、より独自性が高く美しいデザイン画像を創出することができる。
ステップS19において、第2の選択領域A4の面積と比較される「所定範囲」とは、オブジェクト40の輪郭42の内側の領域の面積の0.001〜90%の範囲に設定することが好ましい。ここで、この「所定範囲」を、オブジェクト40の輪郭42の内側の領域の面積の90%以下と設定することにより、デザインの要素データとして抽出されることとなる第2の選択領域A4に、オブジェクト40の特定属性が、ほとんど又は全く含まれなくすることができるので、要素データを、ほぼ当該オブジェクトの付加属性のみから構成することができる。これにより、デザイン画像を観た者によってオブジェクト40がより想起又は特定されにくいような要素データを、確実に抽出することができる。また、この「所定範囲」を、オブジェクト40の輪郭42の内側の領域の面積の0.001%以上とすることにより、第2の選択領域A4に十分な量のデザイン素材(オブジェクトの付加属性情報)を含めることができる。したがって、ステップS19を設け、これによって第2の選択領域A4の画像が特徴捨象画像か否かを判断することにより、ユーザは、より独自性が高く美しいデザイン画像を創出することができる。同様の観点からは、この「所定範囲」を、オブジェクト40の輪郭42の内側の領域の面積の0.1〜50%の範囲に設定することが、さらに好ましい。
一方、第2の選択領域A4の輪郭の形状がオブジェクト40の輪郭42の形状と非相似であり(ステップS18、Yes)、かつ、第2の選択領域A4の面積が上記所定範囲内である場合(ステップS19、Yes)、処理部23は、第2の選択領域A4の画像が特徴捨象画像であると判断して、第2の選択領域A4をデザインの要素データ43として抽出し(ステップS21)、図8に示すように、要素データ43のみを表示部22に表示させる。
一方、ステップS15で、処理部23は、オブジェクト40の3次元形状に基づいて、第1の選択領域A1を複数の部分領域へと区分けできないと判断した場合(ステップS15、No)、第1の選択領域A1について、ステップS18〜S20と同様の処理を行い(ステップS23〜S25)、その後、ステップS21で要素データ43の抽出を行う。
ステップS21の後、処理部23は、ユーザによる入力部21の操作に従って、表示部22に表示させている要素データ43に基づいて、例えば図9に示すような、他の画像データ(以下、「デザイン画像データ」という。)44を作成して(ステップS22)、処理を終了する。ステップS22によれば、要素データ43の画像をそのままデザイン画像として用いる場合と比べて、デザイン画像を観た者によってオブジェクト40がさらに想起又は特定されにくいようなデザイン画像を創り出すことができる。
図9に示す画像データ44は、12個の要素データ43を、それぞれ交互に左右反転させて左右方向に連結させてなるものである。
ステップS21で抽出されたデザインの要素データ43や、ステップS22で作成されたデザイン画像データ44は、例えば、衣類、傘、メガネ、カバン、財布等の雑貨、自動車、テレビ、PC、照明のフード等の、任意の工業製品や建築物に印刷されたり、当該工業製品や建築物に貼られる装飾用シール等に印刷される等して、当該工業製品や建築物を装飾することができる。このようにして、誰でも簡単に、独自性が高く美しいデザインが施されてなる工業製品や建築物を提供することができる。
図14は、同様の画像処理で抽出された他の要素データの例を示しており、オブジェクトは、上記の例とは異なる虫(和名ミマスニジダイコクコガネ:学名Diabroctis mimas mimas)である。図15は、図14の要素データの画像をデフォルメせずに100倍拡大して得た画像(デザイン画像データの画像)が、デザインとして印刷された、マフラーを示している。
上述した一実施形態によれば、あるオブジェクトの画像から、このオブジェクトの特徴が捨象された部分の画像(特徴捨象画像)をデザインの要素データとして抽出することができるので、ユーザは、高いデザイン能力を要するデフォルメ加工をすることなく、要素データの画像をそのままデザイン画像として用いたり、要素データを用いて作成した他の画像データをデザイン画像として用いるだけで、独自性が高く美しいデザイン画像を簡単に創出することができる。このように、ユーザ個人のデザイン能力の高さに依らず、誰でも独自性が高く美しいデザイン画像創り出すことが可能になる。
なお、図2のステップS14では、第1の選択領域A1の一部が、オブジェクト40の輪郭42よりも外側に存在する場合(ステップS14、No)、再度ユーザに領域を選択させる代わりに、第1の選択領域A1のうち、オブジェクト40の輪郭よりも外側の部分を除去して、オブジェクト40の輪郭から内側の部分を新たに第1の選択領域A1に置き換えるようにしてもよい。これにより、ユーザに再度領域を選択させることが防止されるので、ユーザの操作が簡単になる。
なお、図2の画像処理において、領域の区分けに関して行うステップS15〜S17の処理、領域の輪郭形状に関して行うステップS18及びS23の処理、並びに、領域の面積に関して行うステップS19及びS24の処理の、3つの処理のうち、いずれか1つ又は2つを省略してもよい。また、これらのいずれか1つ以上の処理に代えて又は加えて、他の判断基準(例えば色彩等)に基づいて、選択領域の画像が特徴捨象画像であるか否かの判断を行うようにしてもよい。
なお、図2のステップS19、S24における選択領域の面積の判断は、それぞれステップS18、S23における選択領域の輪郭形状の判断の前に行ってもよい。あるいは、第1の選択領域A1の面積の上限(所定値以下か否か)の判断をステップS14の後に行って、ステップS19、S24では選択領域の面積の下限(所定値以上か否か)の判断のみを行うようにしてもよい。
図2のステップS22におけるデザイン画像データ44の作成は、ステップS21の後に自動的に開始される場合に限られず、ステップS21の後に一旦要素データ43を記憶部20に記憶させておき、ユーザによる入力部21の操作によってデザイン画像データ44の作成開始の指示が入力されてから、ステップS22を開始するようにしてもよい。
図2のステップS22では、同一の又は異なる複数の要素データ43を、任意の組合せ及び方法で並べて、デザイン画像データ44を作成することができる。どのような組合せ及び方法で並べるかについては、ユーザが入力部21を操作して選択できるようにすれば、デザインの自由度を高めることができる。
例えば、図2のステップS11〜S21の処理を、複数の異なるオブジェクトの画像データについて繰り返し行い、その後、ステップS22において、それぞれのオブジェクトの画像データから抽出された要素データを組み合わせて、1つのデザイン画像データ44を作成してもよい。この場合、デザイン画像データ44のデザイン独自性をさらに高めることができる。
また、デザイン画像データ44を作成するにあたっては、同一の又は異なる複数の要素データ43を、数学の関数関係に従った順番で並べてもよいし、繰り返しの規則性を持たせた順番で並べてもよいし、ランダムな順番で並べてもよい。
また、デザイン画像データ44を作成するにあたっては、要素データ43の色を、補色の関係にある色に変換した上で、当該変換された要素データを用いてもよいし、要素データ43の色情報をすべて色相に変換してモノクロ画像データに変換した上で、当該変換された要素データを用いてもよい。
デザイン画像データ44を作成するにあたっては、要素データ43を、1000倍までの範囲で、より好ましくは1.1〜1000倍に拡大させ、又は、0.01倍までの範囲で、より好ましくは0.01〜0.99倍に縮小させた画像のデータを用いると、デザイン画像を観た者によってオブジェクトがさらに想起又は特定されにくくすることができる。
なお、要素データ43を拡大させる場合は、画像をより鮮明にするために、デジタル画像の補間技術で画素を補間するのが好ましい。このような補間技術として、例えば、コンピュータのソフトウェアであるPHOTOSHOP(登録商標、アドビ システムズ株式会社)や、株式会社ニコン製やキヤノン株式会社製のデジタルカメラに付属するソフトウェアを使用し、画像の画素を増加させる方法などが知られている。
なお、ユーザによる入力部21の操作によって、図2のステップS11で画像データ30をデフォルメできるようにしたり、図2のステップ21で要素データ43をデフォルメできるようにすることは、デザインの美的要素に個人差が大きく反映されるので好ましくない。
図2のステップS22では、要素データ43に加えて、任意の他のデザイン素材を用いて、他の画像データを作成してもよい。
(第2実施形態)
図10及び図11を主に参照して、本発明の第2実施形態を説明する。上述した第1実施形態は、デザインの要素データとして抽出されるための領域が、ユーザにより選択された後に、この選択された第1の選択領域にオブジェクトの3次元形状が複数種類含まれることが判明した場合、第1の選択領域をオブジェクトの3次元形状の種類毎に区分けして、区分けされた部分領域内で、再度ユーザに領域を選択させるものである。これに対して、第2実施形態は、ユーザに領域の選択をさせる前に、オブジェクトの輪郭から内側の領域を、オブジェクトの3次元形状に基づき区分けして、区分けされた部分領域内でユーザに領域を選択させるものである。これにより、ユーザにより選択される領域にオブジェクトの3次元形状が複数種類含まれることが防止されるので、ユーザに領域を選択し直させることが防止され、ユーザの操作が簡単になる。
なお、第2実施形態に係る画像処理装置の構成は、基本的に第1実施形態について図1を参照して説明した構成と同様である。
図10及び図11を主に参照して、本実施形態に係る画像処理装置10による画像処理の一例を説明する。なお、ここでは、第1実施形態について図2を参照して説明した画像処理と異なる部分を中心に説明する。
この画像処理は、処理部23が画像処理プログラム31を実行して行うものである。予め、この画像処理の開始前には、オブジェクトを表した1つ又は複数の画像データ30が記憶部20に記憶されている。
画像処理プログラム31が起動された後、ユーザによる入力部21の操作によって、記憶部20に記憶された1つ又は複数の画像データ30のうちいずれかが選択されると、処理部23は、図3に示すように、選択された画像データ30を表示部22に表示させる(ステップS41)。
ステップS41の後、処理部23は、表示部22に表示させている画像データ30におけるオブジェクト40と背景41との境界線をなすオブジェクト40の輪郭42を特定し、図4に示すように、表示部22に、オブジェクト40の輪郭42を画像データ30上に重ね合わせて表示させる(ステップS42)。
次に、処理部23は、図11に示すように、画像データ30に基づいて特定されるオブジェクト40の3次元形状に基づいて、オブジェクト40の輪郭42から内側の領域に区分け線を引く等して、オブジェクト40の輪郭42から内側の領域を複数の部分領域A11〜A20へ区分けして、各部分領域A11〜A20の輪郭を、表示部22に、画像データ30上に重ね合わせて表示する(ステップS43)。
その後、処理部23は、例えば表示部22に「区分けされた領域内で、デザイン素材とする領域を選択してください」というメッセージを表示させつつ、いずれか1つの部分領域の少なくとも一部分が選択されるまで待機する(ステップS44、No)。いずれか1つの部分領域の少なくとも一部分が選択されると(ステップS44、Yes)、選択された領域(以下、「選択領域」という。)の輪郭を、表示部22に、画像データ30上に重ね合わせて表示させる。
なお、「いずれか1つの部分領域の少なくとも一部分」とは、当該部分領域の輪郭を含んでもよい。
ここで、デザインの要素データとして抽出されることとなる選択領域に、オブジェクト40の3次元形状が複数種類含まれると、この要素データを用いたデザイン画像を観る者によって、オブジェクト40が想起又は特定され易くなる。このことに鑑み、ステップS43〜S44では、オブジェクト40の輪郭42から内側の領域を3次元形状の種類毎に区分けして、区分けされた部分領域内でユーザに領域を選択してもらうようにすることで、当該選択領域の画像が特徴捨象画像となるようにしている。これにより、この選択領域には、1種類のみの3次元形状が含まれることとなるので、デザイン画像を観た者によってオブジェクト40がより想起又は特定されにくいような要素データを、確実に抽出することができる。
ステップS44の後の処理は、図2のステップS18〜S22と同様に行う(ステップS45〜S49)。
本実施形態によれば、デザインの要素データとして抽出されることとなる領域をユーザに選択させる前に、オブジェクトの輪郭から内側の領域を、オブジェクトの3次元形状に基づき区分けして、区分けされた部分領域内でユーザに領域を選択させるので、第1実施形態の効果に加えて、ユーザに領域を選択し直させることを防止して、ユーザの操作を簡単にすることができる。
なお、図10のステップS44で、いずれか1つの部分領域の少なくとも一部分が選択された場合(ステップS44、Yes)、この選択領域の全部が、必ず、オブジェクト40の輪郭42から内側に存在することとなるので、図2のステップS14のようにわざわざ当該選択領域の全部がオブジェクト40の輪郭42から内側に存在するか否かの判断を行う必要はない。
なお、図10の画像処理において、領域の区分けに関して行うステップS43の処理、領域の輪郭形状に関して行うステップS45の処理、並びに、領域の面積に関して行うステップS46の処理の、3つの処理うち、いずれか1つ又は2つを省略してもよい。また、これらのいずれか1つ以上の処理に代えて又は加えて、他の判断基準(例えば色彩等)に基づいて、選択領域の画像が特徴捨象画像であるか否かの判断を行うようにしてもよい。
また、図10のステップS46における選択領域の面積の判断は、ステップS45における選択領域の輪郭形状の判断の前に行ってもよい。
(第3実施形態)
図12及び図13を主に参照して、本発明の第3実施形態を説明する。上述した第1及び第2実施形態は、オブジェクトの輪郭から内側の領域で、ユーザに領域を選択させた後に、この選択領域の画像が特徴捨象画像であると判断した場合に、当該選択領域を要素データとして抽出するものである。これに対して、第3実施形態は、ユーザに領域を選択させる前に、処理部が該領域の画像が特徴捨象画像であると判断した1以上の領域を、選択可能領域として表示部に表示させ、ユーザにいずれか一つ以上の選択可能領域を選択させて、選択された領域を要素データとして抽出するものである。これにより、ユーザは表示部に表示される1以上の選択可能領域を選ぶだけでよいので、ユーザの操作がさらに簡単になる。また、ユーザにより選択される領域の画像は必ず特徴捨象画像となるので、ユーザに領域を選択し直させることが確実に防止され、ユーザの操作をさらに簡単にすることができる。
なお、第3実施形態に係る画像処理装置の構成は、基本的に第1実施形態について図1を参照して説明した構成と同様である。
図12及び図13を主に参照して、本実施形態に係る画像処理装置10による画像処理の一例を説明する。なお、ここでは、第2実施形態について図10を参照して説明した画像処理と異なる部分を中心に説明する。
この画像処理は、処理部23が画像処理プログラム31を実行して行うものである。予め、この画像処理の開始前には、オブジェクトを表した1つ又は複数の画像データ30が記憶部20に記憶されている。
また、予め、この画像処理の開始前には、表示部22に表示させることとなる選択可能領域の数及び形状の設定情報が、記憶部20に記憶されている。本例では、当該設定情報として、長方形、三角形、円形及び八角形の選択可能領域がそれぞれ1個ずつ、表示部22に表示されることが、予め記憶部20に記憶されている。この設定情報は、この画像処理の開始前に、例えばユーザによる入力部21の操作によって入力される。
画像処理プログラム31が起動された後、ユーザによる入力部21の操作によって、記憶部20に記憶された1つ又は複数の画像データ30のうちいずれかが選択されると、処理部23は、図3に示すように、選択された画像データ30を表示部22に表示させる(ステップS61)。
ステップS61の後、処理部23は、表示部22に表示させている画像データ30におけるオブジェクト40と背景41との境界線をなすオブジェクト40の輪郭42を特定し、図4に示すように、表示部22に、オブジェクト40の輪郭42を画像データ30上に重ね合わせて表示させる(ステップS62)。
次に、処理部23は、画像データ30に基づいて特定されるオブジェクト40の3次元形状に基づいて、オブジェクト40の輪郭42から内側の領域を複数の部分領域へ区分けする(ステップS63)。ここで、図10のステップS43とは異なり、処理部23は、各部分領域の輪郭を、表示部22に、画像データ30上に重ね合わせて表示させない。
その後、処理部23は、図13に示すように、ステップS63で区分けされた少なくとも1つの部分領域内で、特徴捨象画像であると判断する1つ以上の領域を抽出し、特徴捨象画像であると判断した1つ以上の領域のそれぞれを選択可能領域A31〜A34として、表示部22に表示させる(ステップS64)。なお、本例における選択可能領域A31〜A34は、記憶部20に記憶された設定情報に基づき、それぞれ長方形、三角形、円形及び八角形の輪郭を有するものである。
ここで、特徴捨象画像であるか否かの判断において、処理部は、図2のステップS18及びS19と同様に、ある領域の輪郭形状がオブジェクト40の輪郭42の形状と非相似であり、かつ、当該領域の面積が所定範囲内である場合に、当該領域が特徴捨象画像であると判断する。当該領域の面積と比較される「所定範囲」とは、オブジェクト40の輪郭42の内側の領域の面積の0.001〜90%の範囲に設定することが好ましく、オブジェクト40の輪郭42の内側の領域の面積の0.1〜50%の範囲に設定することがさらに好ましい。
なお、「少なくとも1つの部分領域内」とは、当該部分領域の輪郭よりも内側の領域と、当該部分領域の輪郭とを含む。
表示部22に表示される各選択可能領域A31〜A34の具体的な位置及び大きさについては、処理部23が、上述した各条件を満たす範囲において、各選択可能領域A31〜A34どうしが重なり合わないように、ランダムに決定する。
ステップS64の後、処理部23は、ユーザによる入力部21の操作によって、表示部22に表示させている1つ以上の選択可能領域A31〜A34のうち、少なくとも1つが選択されるまで待機する(ステップS65、No)。少なくとも1つの選択可能領域A31〜A34が選択されると(ステップS65、Yes)、処理部23は、選択された各領域(選択領域)をそれぞれ要素データとして抽出する(ステップS66)。その後、処理部23は、ユーザによる入力部21の操作に従って、ステップS66で抽出した各要素データを用いて他の画像データ(デザイン画像データ)を作成して(ステップS67)、処理を終了する。
本実施形態によれば、デザインの要素データとして抽出されることとなる領域をユーザに選択させる前に、特徴捨象画像であると判断した1以上の領域を、選択可能領域として表示部に表示させ、表示部に表示させた選択可能領域のいずれか一つ以上をユーザに選択させて、選択された領域を要素データとして抽出するものである。これにより、ユーザは表示部に表示される1以上の選択可能領域を選ぶだけでよいので、ユーザの操作がさらに簡単になる。また、ユーザにより選択される領域の画像は必ず特徴捨象画像であるので、第1及び第2実施形態の効果に加えて、ユーザに領域を選択し直させることが確実に防止され、ユーザの操作をさらに簡単にすることができる。
なお、図12のステップS63において、各部分領域の輪郭を、表示部22に、画像データ30上に重ね合わせて表示させないことにより、ユーザが各選択可能領域A31〜A34の輪郭を、各部分領域の輪郭と混同することが防止されるので、ユーザの操作を簡単にすることができる。
ただし、図12のステップS63において、図11に示すように、各部分領域の輪郭を、表示部22に、画像データ30上に重ね合わせて表示させてもよい。
なお、図12の画像処理において、領域の区分けに関して行うステップS63の処理や、ステップS64で選択領域の輪郭形状に関して行う判断、及びステップS64で選択領域の面積に関して行う判断のうち、いずれか1つ又は2つを省略してもよい。また、これらのいずれか1つ以上の処理又は判断に代えて又は加えて、他の判断基準(例えば色彩等)に基づいて、選択領域の画像が特徴捨象画像であるか否かの判断を行うようにしてもよい。
なお、上述した各実施形態では、画像処理装置10が、デザインの要素データとして抽出されることとなる画像が特徴捨象画像であるか否かの判断を行うが、同様の判断を人間が行ってもよい。
本発明は、衣類、傘、メガネ、カバン、財布等の雑貨、自動車、テレビ、PC、照明のフード等の、任意の工業製品や建築物に施されたり、当該工業製品や建築物に貼られる装飾用シール等に施される、デザイン画像を作成する際に利用することができる。
10:画像処理装置、 20:記憶部、 21:入力部、 22:表示部、 23:処理部、 30:画像データ、 31:画像処理プログラム、 40:オブジェクト、 41:背景、 42:オブジェクトの輪郭、 43:要素データ、 44:他の画像データ(デザイン画像データ)、 A1:第1の選択領域(選択領域)、 A2、A3、A11〜A20:部分領域、 A4:第2の選択領域(選択領域)、 A31〜A34:選択可能領域

Claims (12)

  1. オブジェクトの画像データを記憶する記憶部と、入力部と、表示部と、処理部と、を備えた画像処理装置を用いて行う、画像処理方法であって、
    前記処理部が、前記表示部に、前記オブジェクトを画像データとして表示させる画像データ表示ステップと、
    前記入力部の操作によって、前記表示部に表示された前記オブジェクトの輪郭から内側の領域が選択領域として選択されると、前記処理部が所定の判断基準に従って前記選択領域の画像が前記オブジェクトの特徴を捨象した特徴捨象画像であると判断した場合に、前記処理部が、前記選択領域を要素データとして抽出する要素データ抽出ステップと、
    を含むことを特徴とする、画像処理方法。
  2. 前記要素データ抽出ステップにおいて、前記処理部は、前記選択領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似である場合に、前記選択領域の画像が前記特徴捨象画像であると判断する、請求項1に記載の画像処理方法。
  3. 前記要素データ抽出ステップにおいて、前記処理部は、前記選択領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似であり、かつ、前記選択領域の面積が前記オブジェクトの面積の0.001〜90%である場合に、前記選択領域の画像が前記特徴捨象画像であると判断する、請求項1に記載の画像処理方法。
  4. 前記要素データ抽出ステップの前に、前記表示部に表示された前記オブジェクトの輪郭から内側の領域を、前記画像データに基づき特定される前記オブジェクトの3次元形状に基づいて、複数の部分領域に区分けする区分けステップをさらに含み、
    前記要素データ抽出ステップにおいて、前記処理部は、前記選択領域がいずれか1つの前記部分領域の少なくとも一部であり、かつ、前記選択領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似である場合に、前記選択領域の画像が前記特徴捨象画像であると判断する、請求項1に記載の画像処理方法。
  5. 前記要素データ抽出ステップの前に、前記表示部に表示された前記オブジェクトの輪郭から内側の領域を、前記画像データに基づき特定される前記オブジェクトの3次元形状に基づいて複数の部分領域に区分けする区分けステップをさらに含み、
    前記要素データ抽出ステップにおいて、前記処理部は、前記選択領域がいずれか1つの前記部分領域の少なくとも一部であり、前記選択領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似であり、かつ、前記選択領域の面積が前記オブジェクトの面積の0.001〜90%である場合に、前記選択領域の画像が前記特徴捨象画像であると判断する、請求項1に記載の画像処理方法。
  6. オブジェクトの画像データを記憶する記憶部と、入力部と、表示部と、処理部と、を備えた画像処理装置を用いて行う、画像処理方法であって、
    前記処理部が、前記表示部に、前記オブジェクトを画像データとして表示させる画像データ表示ステップと、
    前記処理部が、前記表示部に、前記表示部に表示された前記オブジェクトの輪郭から内側の領域であって、前記処理部が所定の判断基準に従って該領域の画像が前記オブジェクトの特徴を捨象した特徴捨象画像であると判断した1以上の領域を、選択可能領域として表示させる、選択可能領域表示ステップと、
    前記入力部の操作によっていずれか一つ以上の前記選択可能領域が選択領域として選択されると、前記処理部が、前記選択領域を要素データとして抽出する要素データ抽出ステップと、
    を含むことを特徴とする、画像処理方法。
  7. 前記選択可能領域表示ステップにおいて、前記処理部は、前記領域の輪郭の形状が前記オブジェクトの輪郭の形状と非相似であり、かつ、前記領域の面積が前記オブジェクトの面積の0.001〜90%である場合に、前記領域の画像が前記特徴捨象画像であると判断する、請求項6に記載の画像処理方法。
  8. 前記処理部が、前記入力部の操作に従って、前記要素データを用いて他の画像データを作成する画像データ作成ステップをさらに含む、請求項1〜7のいずれか一項に記載の画像処理方法。
  9. 前記画像データ作成ステップにおいて、前記処理部は、前記要素データとして抽出された前記選択領域の画像を、1000倍までの範囲で拡大させ、または、0.01倍までの範囲で縮小させた画像のデータを用いて前記他の画像データを作成する、請求項8に記載の画像処理方法。
  10. オブジェクトの画像データを記憶する記憶部と、入力部と、表示部と、処理部と、を備えた画像処理装置における、前記処理部に実行させる、画像処理プログラムであって、
    前記処理部が、前記表示部に、前記オブジェクトを画像データとして表示させる画像データ表示ステップと、
    前記入力部の操作によって、前記表示部に表示された前記オブジェクトの輪郭から内側の領域が選択領域として選択されると、前記処理部が所定の判断基準に従って前記選択領域の画像が前記オブジェクトの特徴を捨象した特徴捨象画像であると判断した場合に、前記処理部が、前記選択領域を要素データとして抽出する要素データ抽出ステップと、
    を前記処理部に実行させることを特徴とする、画像処理プログラム。
  11. オブジェクトの画像データを記憶する記憶部と、
    入力部と、
    表示部と、
    請求項10に記載の画像処理プログラムを実行する処理部と、
    を備えたことを特徴とする、画像処理装置。
  12. 請求項1〜7に記載の画像処理方法を用いて抽出された前記要素データ、または、請求項8又は9に記載の画像処理方法を用いて作成された前記他の画像データに基づくデザインが、施されてなることを特徴とする、工業製品。
JP2013269898A 2013-12-26 2013-12-26 画像処理方法、画像処理プログラム、画像処理装置及び工業製品 Active JP6371521B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013269898A JP6371521B2 (ja) 2013-12-26 2013-12-26 画像処理方法、画像処理プログラム、画像処理装置及び工業製品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013269898A JP6371521B2 (ja) 2013-12-26 2013-12-26 画像処理方法、画像処理プログラム、画像処理装置及び工業製品

Publications (2)

Publication Number Publication Date
JP2015125609A true JP2015125609A (ja) 2015-07-06
JP6371521B2 JP6371521B2 (ja) 2018-08-08

Family

ID=53536269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013269898A Active JP6371521B2 (ja) 2013-12-26 2013-12-26 画像処理方法、画像処理プログラム、画像処理装置及び工業製品

Country Status (1)

Country Link
JP (1) JP6371521B2 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04117579A (ja) * 1990-09-07 1992-04-17 Ricoh Co Ltd ハッチング領域抽出方法
JP3096180U (ja) * 2003-02-27 2003-09-05 清原株式会社 マフラー
JP2004157932A (ja) * 2002-11-08 2004-06-03 Matsushita Electric Ind Co Ltd 物体認識装置および物体認識プログラム
JP2005196702A (ja) * 2004-01-09 2005-07-21 Hitachi Software Eng Co Ltd 画像を分割可能なプログラム及び画像分割方法
WO2005121784A1 (ja) * 2004-06-10 2005-12-22 Kurume University 医用画像処理システム
JP2007517280A (ja) * 2003-11-28 2007-06-28 ジョン・アミコ パターンをデジタル化するためのシステムと方法
JP2008077460A (ja) * 2006-09-22 2008-04-03 Fujifilm Corp 画像評価装置およびそのプログラム
JP2008217494A (ja) * 2007-03-05 2008-09-18 Sharp Corp 画像処理方法、画像処理プログラムおよび画像処理装置
JP2013048405A (ja) * 2011-07-22 2013-03-07 Nikon Corp 領域抽出装置、撮像装置、及び領域抽出プログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04117579A (ja) * 1990-09-07 1992-04-17 Ricoh Co Ltd ハッチング領域抽出方法
JP2004157932A (ja) * 2002-11-08 2004-06-03 Matsushita Electric Ind Co Ltd 物体認識装置および物体認識プログラム
JP3096180U (ja) * 2003-02-27 2003-09-05 清原株式会社 マフラー
JP2007517280A (ja) * 2003-11-28 2007-06-28 ジョン・アミコ パターンをデジタル化するためのシステムと方法
JP2005196702A (ja) * 2004-01-09 2005-07-21 Hitachi Software Eng Co Ltd 画像を分割可能なプログラム及び画像分割方法
WO2005121784A1 (ja) * 2004-06-10 2005-12-22 Kurume University 医用画像処理システム
JP2008077460A (ja) * 2006-09-22 2008-04-03 Fujifilm Corp 画像評価装置およびそのプログラム
JP2008217494A (ja) * 2007-03-05 2008-09-18 Sharp Corp 画像処理方法、画像処理プログラムおよび画像処理装置
JP2013048405A (ja) * 2011-07-22 2013-03-07 Nikon Corp 領域抽出装置、撮像装置、及び領域抽出プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
井口 茂、山名 早人: ""テクスチャと非テクスチャの区別を用いた輪郭線抽出"", 電子情報通信学会技術研究報告, vol. 105, no. 414, JPN6017045833, 10 November 2005 (2005-11-10), JP, pages 13 - 18, ISSN: 0003827993 *

Also Published As

Publication number Publication date
JP6371521B2 (ja) 2018-08-08

Similar Documents

Publication Publication Date Title
USD892149S1 (en) Display screen or a portion thereof with an animated graphical user interface
USD900159S1 (en) Display screen or portion thereof with animated graphical user interface
US10482316B2 (en) Image information processing method and apparatus, and computer storage medium
CN109784281A (zh) 基于人脸特征的产品推荐方法、装置及计算机设备
CN110390632B (zh) 基于妆容模板的图像处理方法、装置、存储介质及终端
JP2019510297A (ja) ユーザの真実の人体モデルへの仮想的な試着
JP6292884B2 (ja) 製品のカスタマイズに用いるデジタル画像を生成するために赤外線写真を用いる方法
USD892829S1 (en) Display screen or a portion thereof with an animated graphical user interface
US10582733B2 (en) Methods for producing garments and garment designs
US20130169827A1 (en) Method and system for make-up simulation on portable devices having digital cameras
CN109377537B (zh) 重彩画的风格转移方法
JP2009527053A5 (ja)
CN102682420A (zh) 一种真实人物图像转换为卡通风格图像的方法及装置
CN106203286A (zh) 一种增强现实的内容获取方法、装置及移动终端
CN105468617B (zh) 调整网页内容颜色的方法及装置
CN106447604A (zh) 一种变换视频中面部画面的方法和装置
US20190272658A1 (en) Image processing device, image processing method, and program
JP7242165B2 (ja) プログラム、情報処理装置、および方法
WO2020104990A1 (en) Virtually trying cloths & accessories on body model
WO2015184903A1 (zh) 一种图片处理方法及装置
JP6371521B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置及び工業製品
CN111767817B (zh) 一种服饰搭配方法、装置、电子设备及存储介质
CN111640190A (zh) Ar效果的呈现方法、装置、电子设备及存储介质
JP2017188071A (ja) 柄替えシミュレーション装置、柄替えシミュレーション方法、及びプログラム
CN107886387A (zh) 采用增强现实技术提供手掌装饰虚拟图像的实现方法及其装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180528

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180713

R150 Certificate of patent or registration of utility model

Ref document number: 6371521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250