JP7263864B2 - 画像処理装置、画像処理方法、画像処理プログラム及び製品開発システム - Google Patents

画像処理装置、画像処理方法、画像処理プログラム及び製品開発システム Download PDF

Info

Publication number
JP7263864B2
JP7263864B2 JP2019053583A JP2019053583A JP7263864B2 JP 7263864 B2 JP7263864 B2 JP 7263864B2 JP 2019053583 A JP2019053583 A JP 2019053583A JP 2019053583 A JP2019053583 A JP 2019053583A JP 7263864 B2 JP7263864 B2 JP 7263864B2
Authority
JP
Japan
Prior art keywords
image
information
parts
learning
generation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019053583A
Other languages
English (en)
Other versions
JP2020154844A (ja
Inventor
芽依 大山
明宏 柿沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019053583A priority Critical patent/JP7263864B2/ja
Publication of JP2020154844A publication Critical patent/JP2020154844A/ja
Application granted granted Critical
Publication of JP7263864B2 publication Critical patent/JP7263864B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法、画像処理プログラム及び製品開発システムに関する。
新製品の構想段階において、試作を行わずに構想を可視化する手法として画像処理によるシミュレーションが活用される。画像シミュレーションであれば、例えば構想を一から考えることをせずとも、既存の製品画像に対し部分的な変更を行い、思惑通りの新しい製品又はデザインの表現等が可能となる。
例えば、特許文献1(特開2002-297689号公報)には、建築関連製品に対する柄デザインのシミュレーションを行い、建築関連製品の全体的な見栄えを確認可能とした柄デザインシミュレーションシステムが開示されている。この柄デザインシミュレーションシステムは、対象となる建築関連製品の構成パーツ及びサイズ等を判断して、ユーザが選択した柄デザインの最適な方向及び配置を決定する。これにより、実際の完成品の見た目に近いシミュレーションを行うことができる。
ここで、製品をデザインする場合、例えば「かわいく」、「スポーティな感じ」、又は、「かっこよく」等のように、ユーザが意図しているデザインが曖昧に表現されることが多い。
しかし、特許文献1の柄デザインシミュレーションシステムを含め、製品のデザインを電子的に行う従来のシステムの場合、このような曖昧な表現での指定により選択可能なパーツを提供することは困難であった。このため、ユーザの思惑に沿ったデザインを表現することが困難なシステムとなっていた。
本発明は、上述の課題に鑑みてなされたものであり、ユーザの思惑に沿ったデザインを表現した製品画像を提供可能な画像処理装置、画像処理方法、画像処理プログラム及び製品開発システムの提供を目的とする。
上述した課題を解決し、目的を達成するために、本発明は、入力画像のデザイン対象に施すデザインをあいまいに表現したあいまい情報に基づいて、あいまい情報を所定の分類に基づいて数値化した第1の情報を生成する第1の情報生成部と、入力画像を解析して、少なくとも入力画像のデザイン対象の態様を示す画像情報を出力すると共に、入力画像のデザイン対象を所定の分類に基づいて数値化した第2の情報を生成する第2の情報生成部と、あいまい情報を所定の分類に基づいて数値化した第1の情報、画像情報、及び、入力画像のデザイン対象を所定の分類に基づいて数値化した第2の情報に基づいて、デザイン対象に付加するパーツ画像を生成するパーツ画像生成部と、入力画像のデザイン対象にパーツ画像を付加した合成画像を生成する画像生成部と、少なくとも任意画像と任意画像に関する画像情報と任意画像の印象を含む情報を複数の任意画像に対して収集した情報群を学習情報とし、学習情報を学習して画像学習モデルを生成する学習部と、を有し、第2の情報生成部は、学習部からの画像学習モデルに基づいて、入力画像を解析して画像情報を生成すると共に、入力画像のデザイン対象を所定の分類に基づいて数値化した第2の情報を生成する
本発明によれば、ユーザの思惑に沿ったデザインを表現した製品画像を提供できるという効果を奏する。
図1は、第1の実施形態に係る画像処理装置を有する製品開発システムのシステム構成の一例を示す図である。 図2は、画像処理装置のハードウェア構成図である。 図3は、画像処理装置の機能ブロック図である。 図4は、画像解析部における対象あいまい情報の算出方法を説明するための図である。 図5は、入力部における変換あいまい情報の算出方法を説明するための図である。 図6は、各種イメージ情報の指標の一例を示す図である。 図7は、画像解析部の解析結果の一例を示す図である。 図8は、画像情報の評価値の一例を示す図である。 図9は、学習部の機能構成の一例を示す図である。 図10は、学習情報の一例を示す図である。 図11は、パーツ画像生成部の処理の一例を示す図である。 図12は、画像生成部で生成される変換画像の一例を示す図である。 図13は、企画担当者の端末に表示される入力画像及びあいまい情報の選択画面(画像変換サービス画面)の一例を示す図である。 図14は、企画担当者の端末に表示される変換画像の表示画面(画像変換サービス結果画面)の一例を示す図である。 図15は、端末に表示される画像変換サービス画面の変形例を示す図である。 図16は、画像処理装置の画像変換の処理の流れを示すフローチャートである。 図17は、第2の実施の形態の製品開発システムに設けられている学習部の機能ブロック図である。 図18は、第2の実施の形態の製品開発システムに設けられている画像処理装置の機能ブロック図である。 図19は、第3の実施の形態の製品開発システムに設けられている画像処理装置の機能ブロック図である。 図20は、画像変換サービス画面に対して印刷ボタンを設け、変換画像等を印刷可能とした例を説明するための図である。 図21は、学習情報の形成動作の流れを模式的に示す図である。
以下、添付図面を参照して、実施の形態の製品開発システムの説明をする。
[第1の実施の形態]
(システム構成)
図1は、第1の実施の形態の製品開発システムのシステム構成を示す図である。一例ではあるが、この図1に示す製品開発システム100は、衣服のデザインを行うシステムとなっており、企画担当者101が有する端末102と、画像処置装置103と、情報処理担当者106が有する端末107とを有する。企画担当者101の端末102と画像処置装置103は、インターネット等の公共網又はLAN(Local Area Network)等のプライベート網等のネットワーク108を介して相互に接続されている。また、画像処置装置103と、情報処理担当者106の端末107は、ライン接続又はネットワークを介して相互に接続されている。
なお、企画担当者101と情報処理担当者106は同一であってもよく、企画担当者101の端末102と情報処理担当者106の端末107は同一であってもよい。
企画担当者101の端末102は、企画担当者101が所望する製品のデザインについて、画像変換処理を実行する。企画担当者101の端末102は、画像変換処理を実行するにあたり、画像処理装置103に「入力画像109」及び「あいまい情報110」を送信する。「入力画像109」は、デザインを施す衣服の撮像画像である。
また、「あいまい情報110」とは、物品又は人物が人に与える印象であり、前記物品を用いるユーザの性別、年齢、前記物品が利用される場面又は条件を含む人の主観による指標を示す情報である。換言すると、「あいまい情報110」とは、入力画像に対して施すことを希望するデザインを曖昧に表現した情報であり、例えば性別、年齢、テーマ、雰囲気、着用場所等を示す語句で指定されたデザインの情報である。性別のあいまい情報は、例えば男性又は女性となる。年齢のあいまい情報は、例えば20代、30代等となる。テーマのあいまい情報は、例えばカジュアル又はスポーティ等となる。雰囲気のあいまい情報は、例えばかわいい、かっこいい等となる。着用場所のあいまい情報は、例えばオフィス、学校、公園等となる。
第1の実施の形態の製品開発システムの場合、企画担当者は、このようなあいまい情報110による曖昧な表現で、所望のデザインを指定可能となっている。
また、企画担当者101の端末102は、画像処理装置103から「変換画像111」及び「対象あいまい情報」を受信し、モニタ装置等の表示部に表示する。「変換画像111」とは、入力画像に対して、あいまい情報110により曖昧な表現で指定されたデザインに対応するパーツ画像を付加して生成(合成)した画像である。「パーツ画像」とは、入力画像に合成するための部品となるパーツのシミュレーション画像である。図1の例の場合、「リボン」の画像があいまい情報110に基づいて選択されたパーツ画像であり、この「リボン」の画像が付加されたTシャツの画像が、変換画像111を示している。
また、「対象あいまい情報」とは、入力画像109のテーマ又は雰囲気等の曖昧な指標を含む情報であり、詳細は後述する。企画担当者101は、表示された変換画像111が、自分の思惑に沿ったデザインであった場合に、操作部を介して決定操作を行う。これにより、変換画像111のデザインが、例えば新製品のデザインとして決定される。
画像処理装置103は、情報処理担当者106の操作により端末107から送信された「データ」の入力を受け付ける。「データ」とは、入力画像109に対する適切なパーツ画像の選択を学習する際に用いる「学習情報」を作成するための情報である。「データ」及び「学習情報」の詳細はそれぞれ後述する。
また、画像処理装置103は、学習情報を用いて学習した関係に基づいて、所定の入力画像109に対する最適なパーツ画像を合成することで変換画像111を生成し、企画担当者101の端末102に送信する。
(画像処理装置のハードウェア構成)
図2は、画像処理装置103のハードウェア構成を示すブロック図である。この図2に示すように、画像処理装置103は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203を有する。また、画像処理装置103は、補助記憶装置204、表示装置205、操作装置206、インタフェース装置(I/F装置)207、及び、ドライブ装置208を有する。CPU201~ドライブ装置208は、バスライン209を介して相互に接続されている。
CPU201は、補助記憶装置204にインストールされている各種プログラム(例えば、画像処理プログラム等)を実行する演算デバイスである。ROM202は、不揮発性メモリである。ROM202は、補助記憶装置204にインストールされている各種プログラムをCPU201が実行するために必要な各種プログラム、データ等を格納する、主記憶デバイスとして機能する。具体的には、ROM202は、BIOS(Basic Input Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する、主記憶デバイスとして機能する。
RAM203は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリである。RAM203は、補助記憶装置204にインストールされている各種プログラムがCPU201によって実行される際に展開される作業領域を提供する、主記憶デバイスとして機能する。補助記憶装置204は、各種プログラムや、各種プログラムが実行される際に用いられる情報を格納する補助記憶デバイスである。表示装置205は、画像処置装置103の内部状態を表示する表示デバイスである。操作装置206は、画像処理装置103に対して各種指示を入力する際に用いられる入力デバイスである。
I/F装置207は、ネットワーク108またはサーバ装置(不図示)に接続するための接続デバイスである。ドライブ装置208は、記録媒体210をセットするためのデバイスである。記録媒体210としては、例えばCD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体を用いることができる。また、記録媒体210としては、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等を用いることができる。
なお、補助記憶装置204にインストールされる各種プログラムは、例えば、配布された記録媒体210がドライブ装置208にセットされ、記録媒体210に記録された各種プログラムがドライブ装置208により読み出されることでインストールされる。あるいは、補助記憶装置204にインストールされる各種プログラムは、I/F装置207を介して、ネットワーク108よりダウンロードされることでインストールされてもよい。
(画像処理装置の機能構成)
図3は、画像処理装置103の機能ブロック図である。上述したとおり、画像処理装置103には、画像処理プログラムがインストールされている。CPU201は、この画像処理プログラムを実行することで、入力部300、画像解析部301、データ入力部302、学習部303、パーツ画像生成部304、画像生成部305として機能する。
入力部300は、企画担当者101の端末102からの、入力画像109及びあいまい情報110を取得する。入力部300は、第1の情報生成部の一例であり、取得した入力画像109を、画像解析部301及び画像生成部305に送信する。また、入力部300は、「変換あいまい情報(第1の情報の一例)」を算出し、前記変換あいまい情報をパーツ画像生成部304に送信する。「変換あいまい情報」とは、あいまい情報110から算出される雰囲気又はテーマ等の曖昧な情報の指標であり、詳細は後述する。
データ入力部302は、情報処理担当者106の端末107から送信されたデータを取得し、学習部303で学習モデルを生成する際に用いられる学習情報を生成する。生成された学習情報は、学習部303に送信される。学習部303は、データ入力部302より学習情報を取得し、「画像情報」及び「対象あいまい情報」の関係を示す画像学習モデルを学習する。「画像情報」は、画像上の対象物の位置、向き及び大きさ等が定義された指標である。「対象あいまい情報」は、変換あいまい情報と同様に、画像の雰囲気又はテーマ等のあいまいな情報が定義された指標である。学習部303で生成された画像学習モデルは、画像解析部301に送信される。
また、学習部303は、対象あいまい情報及び変換あいまい情報と、画像情報とパーツ画像との関係を示すパーツ学習モデルを学習して生成する。この学習により生成されたパーツ学習モデルは、パーツ画像生成部304に送信される。
画像解析部301は、第2の情報生成部の一例であり、入力部300から送信された入力画像109と、学習部303から送信された画像学習モデルに基づいて、入力画像109の画像情報及び対象あいまい情報(第2の情報の一例)を推定する。推定された画像情報は、パーツ画像生成部304に送信され、対象あいまい情報は、パーツ画像生成部304及び企画担当者101の端末102に送信される。
パーツ画像生成部304は、画像解析部301から送信された画像情報及び対象あいまい情報と、入力部300から送信された変換あいまい情報と、学習部303から送信されたパーツ学習モデルを受信する。パーツ画像生成部304は、受信したパーツ学習モデルを用いて、画像情報、対象あいまい情報及び変換あいまい情報から適切なパーツ画像を生成する。生成したパーツ画像は、画像生成部305に送信される。
画像生成部305は、入力部300から送信された入力画像109と、パーツ画像生成部304から送信されたパーツ画像を受信する。受信した入力画像109に対して、パーツ画像を合成することで、あいまい情報110で指定された企画担当者101の思惑に沿ったデザインが反映された変換画像111(合成画像の一例)を生成する。生成された変換画像111は、企画担当者101の端末102に送信される。
(対象あいまい情報の算出動作)
図4は、画像解析部301における対象あいまい情報の算出動作を模式的に示す図である。対象あいまい情報400は、入力画像109の衣服が対象とする性別、年齢、テーマ等の指標の大分類と、各大分類にそれぞれ属する小分類と、各小分類の評価値である「スコア402」、及び、これらに基づいて抽出された小分類の集合情報である抽出あいまい情報を含んで生成されている。
「スコア402」は、各小分類の評価する数値化した指標となっている。図4の例は、スコア402を、0以上1以下の値で算出した例である。例えば、「性別」の大分類が、「男性」及び「女性」の小分類に分類されており、「男性」の小分類には「0.2」のスコアが付されており、「女性」の小分類には「0.8」のスコアが付されている。
大きな値のスコア402の小分類ほど、見た目のあいまいさに対する影響が大きい。画像解析部301は、各大分類において、最も大きな値のスコア402の小分類をそれぞれ抽出して抽出あいまい情報400を生成する。図4に示す例は、「女性」、「10代」、「カジュアル」、「おとなしい」及び「学校」の各小分類が抽出されて対象あいまい情報400が生成された例である。
このような画像解析部301の動作をまとめると、画像解析部301は、後述する画像学習モデル404を用いて、入力画像109に対する全小分類のスコア401を推定する。推定されたスコア401を、入力画像109に対する各小分類のスコア402とする。次に、画像解析部301は、各大分類において最も高い値のスコアの小分類を一つずつ抽出し、抽出した小分類で抽出あいまい情報を生成する。画像解析部301は、大分類、小分類、スコア及び抽出あいまい情報を含む対象あいまい情報を、パーツ画像生成部304に供給する。
(変換あいまい情報の算出動作)
次に、図5は、入力部300における変換あいまい情報の算出動作を模式的に示す図である。変換あいまい情報500は、対象あいまい情報400と同様に、大分類、小分類、スコア、及び、入力されたあいまい情報109を含んで生成されている。入力部300は、入力されたあいまい情報109に対応する小分類のスコアを「1」、それ以外の小分類のスコアを「0」とする。そして、大分類、小分類、スコア及び入力されたあいまい情報を含む変換あいまい情報を、パーツ画像生成部304に供給する。
(大分類及び小分類の具体例)
図6は、指標となっている大分類及び小分類の一例を示す図である。一例ではあるが、対象あいまい情報400及び変換あいまい情報500の大分類は、この図6に示すように「性別」、「年齢」、「テーマ」、「雰囲気」及び「着用場所」等の項目に分類されている。また、「性別」の大分類は、「男性」及び「女性の」小分類に分類されている。「年齢」の大分類は、「10代」、「20代」、「30代」、「40代」、「50代」及び「60代」等の小分類に分類されている。「テーマ」の大分類は、「カジュアル」、「スポーティ」、「エスニック」、「ガーリー」、「コンサバ」、「フェミニン」、「モード」、「ロック」、「ナチュラル」及び「ストリート」等の小分類に分類されている。
「雰囲気」の大分類は、「かわいい」、「かっこいい」、「おとなしい」、「きれい」、「さわやか」、「派手」、「地味」及び「華やか」等の小分類に分類されている。「着用場所」の大分類は、「オフィス」、「学校」、「公園」、「ショッピングモール」、「遊園地」及び「病院」等の小分類に分類されている。
この図6に示す例の場合、大分類が5個、小分類が合計32個である。このため、対象あいまい情報400及び変換あいまい情報500には、大分類及び小分類に加えて、32個のスコア及び5個の抽出あいまい情報又はあいまい情報が含まれることとなる。
(画像処理装置の各部の処理の詳細)
次に、画像処理装置103の各部(画像解析部301、学習部303、データ入力部302、パーツ画像生成部304、画像生成部305)の処理動作の詳細について説明する。
(画像解析部の処理の詳細)
まず、画像解析部301の処理の詳細について説明する。図7は、画像解析部301の解析動作を模式的に示す図である。画像解析部301は、入力部300から入力された入力画像109に対し、学習部303から入力される画像学習モデルを用いて、画像情報及び対象あいまい情報を算出する。
画像情報は、入力画像109の客観的な指標であり、入力画像109の衣服全体、襟又は袖等の位置を示す対象領域の座標情報と、Tシャツ、ブラウス等の衣服の種類を示すカテゴリと、衣服の色と、袖丈等を含んで生成される。対象あいまい情報は、入力画像109の主観的で曖昧な指標であり、図4を用いて説明したように、入力画像109のイメージ及びスコア402を含んで生成される。なお、この図6の例では、スコアの値が高い「女性」及び「カジュアル」の各小項目が、抽出あいまい情報として抽出されている。
図8は、画像情報の評価値の一例を示す図である。この図8の例では、画像情報の指標は、対象領域の座標情報、カテゴリ、色及び袖丈の4種類に分類されている。このうち、例えば「色」の評価値としては、赤、緑、青、白、黒の5つの評価値が存在する。また、対象領域の座標情報は、例えば襟、袖口等の対象領域の位置を示す座標情報である。例えば、対象領域が矩形である場合、対象領域の座標情報は、基準座標と辺の長さで定義された情報となる。ただし、対象領域は矩形とは限らない。また、画像情報は図8で示した種類に限らない。
(データ入力部の処理の詳細)
図21に、データ入力部302における学習情報の形成動作の流れを模式的に示す。この図21において、情報処理担当者106は、端末107を介して、SNS(Social Networking Service)又は衣服のEC(Electronic Commerce)サイトから、様々なタグ情報が対応付けられた画像を収集する。または、情報処理担当者106は、端末107を介して、収集画像にタグ情報を付加してもよい(この場合は、担当者が正確なタグ情報を付加できることが前提である)。タグ情報は、例えば衣服のカテゴリ、雰囲気、着用場所等を示す情報である。情報処理担当者106は、このように収集してタグ情報を付加したタグ付画像を「データ」とし、端末107を介して、データ入力部302に入力する。
データ入力部302は、端末107から受信したデータから、図21に示すように学習情報を抽出する。このとき、データ入力部302は、各画像に対して学習情報IDを重複なく割り振った上で、予め学習情報に必要な情報がタグ付けされている場合は、それを学習情報として利用する。一例ではあるが、データ入力部302は、衣服カテゴリは画像情報として利用し、雰囲気又は着用場所は対象イメージ情報等に利用する。
タグ情報に不足がある場合、データ入力部302は、学習情報として必要な情報を画像認識によって抽出可能な学習モデルを用いて、学習情報を抽出する。
学習情報の抽出には、各画像間の関係性を用いてもよく、例えばパーツ画像については、複数の画像間における画像情報や対象イメージ情報の差分から画像を生成可能な学習モデルを用いて、パーツ画像を抽出する。
データ入力部302は、このように抽出された情報を「学習情報」として、学習部303に供給する。
(学習部の処理の詳細)
次に、学習部303の処理の詳細について説明する。図9は、学習部303の機能構成の詳細を示す図である。図9に示すように、学習部303は、学習情報入力部900と、画像学習情報格納処理部903と、パーツ学習情報格納処理部904と、画像モデル学習部901と、パーツモデル学習部902とを有する。
学習情報入力部900は、データ入力部302から学習情報を受信する。図10は、学習情報の一例を示す図である。この図10に示すように、学習情報には、学習情報識別番号(学習情報ID)、入力画像、画像情報、対象あいまい情報、パーツ画像、変換あいまい情報が少なくとも1つずつ含まれている。パーツ画像は、同じ学習情報IDの入力画像に合成することで、変換あいまい情報によりあいまいに指定されたデザインに合う変換画像111に、入力画像109を変換するためのパーツの画像である。このパーツ画像は、合成時に違和感を生じさせない位置及び大きさで配置される。
学習情報入力部900は、入力された学習情報のうち、「画像情報」を「画像学習情報」として画像学習情報格納処理部903へ送信し、「パーツ画像」を「パーツ学習情報」としてパーツ学習情報格納処理部904へ送信する。画像学習情報格納処理部903は、補助記憶装置204に「画像学習情報」を記憶制御する。パーツ学習情報格納処理部904は、補助記憶装置204に「パーツ学習情報」を記憶制御する。「画像学習情報」は、学習情報のうち、学習情報ID、入力画像、画像情報、対象あいまい情報を含む情報である。「パーツ学習情報」は、学習情報のうち、学習情報ID、画像情報、対象あいまい情報、パーツ画像及び変換あいまい情報を含む情報である。
画像モデル学習部901は、画像学習情報格納処理部903により補助記憶装置204に記憶された画像学習情報を取得し、画像学習モデルを学習する。画像モデル学習部901は、入力画像に対し、その画像情報と対象あいまい情報の出力を可能とする画像学習モデルの学習を行う。学習された画像学習モデルは、画像解析部301に送信される。
パーツモデル学習部902は、パーツ学習情報格納処理部904により補助記憶装置204に記憶されたパーツ学習情報を取得し、パーツ学習モデルを学習する。パーツモデル学習部902は、画像情報と対象あいまい情報と変換あいまい情報の組み合わせに対し、パーツ画像を出力可能とするパーツ学習モデルの学習を行う。学習されたパーツ学習モデルは、パーツ画像生成部304に送信される。画像学習モデル及びパーツ学習モデルは、例えば畳み込みニューラルネットワークにより構成される。
(データ入力部の処理の詳細)
次に、データ入力部302の処理の詳細について説明する。データ入力部302は、情報処理担当者106の端末107から、学習情報の元となるデータを受信する。データには、各種イメージ情報の小分類毎に、小分類に属する衣服の画像が1つ以上含まれている。情報処理担当者106は、例えばソーシャルネットワークサービスから、小分類に相当するタグが対応付けられた画像を収集することでデータを得て、データ入力部302に送信する。
データ入力部302は、衣服情報の構成要素を画像認識によって抽出可能な学習モデルを用いて、各種イメージ情報及びパーツ画像を抽出する。データ入力部302は、抽出した情報に対し、学習情報IDを重複なく割り振る。データ入力部303は、学習情報IDが割り振られた抽出結果のリストを学習情報として学習部303に送信する。
(パーツ画像生成部の処理の詳細)
次に、パーツ画像生成部304の処理の詳細について説明する。図11は、パーツ画像生成部304の処理を模式的に示す図である。パーツ画像生成部304は、学習部303から受信したパーツ学習モデル1100を用いて、画像解析部301より受信した画像情報及び対象あいまい情報と、入力部300より受信した変換あいまい情報から、パーツ画像1101を生成する。パーツ学習モデル1100は、画像情報及び各種イメージ情報のスコアを全て連結して入力されるベクトルに基づいて、パーツ画像1101の各ピクセルのRGB値に対応した出力を、最終層(図11では第N層)から出力する。
複数のパーツ画像1101を生成する場合、あいまい情報の各スコアを微少に変化させ、パーツ学習モデル1100を用いて再びパーツ画像1101を生成する動作を繰り返し行う。これにより、企画担当者101が入力したあいまい情報で指定されているデザインから離れずに(あいまい情報で指定されているデザインに近いデザインの)、複数種類のパーツ画像1101を生成することができる。
なお、パーツ学習モデル1100の最終層の出力数を、予め指定したパーツ画像の数で設定することも可能である。この場合、複数個のパーツ画像を同時に生成できる。
(画像生成部の処理の詳細)
次に、画像生成部305の処理の詳細について説明する。図12は、画像生成部305で生成される変換画像111の一例を示す図である。画像生成部305は、入力部300から受信した入力画像109の上に、パーツ画像生成部304から受信したパーツ画像1101を重ね合わせる(合成する)。すなわち、画像生成部305は、パーツ画像1101と同じ位置となる入力画像1200上の位置の画像を、パーツ画像1101と置き換える。これにより、企画担当者101により、あいまいに指定されたデザインが施された画像である、変換画像111を生成できる。
(ユーザインターフェースの詳細)
次に、画像生成部305により、企画担当者101の端末102に表示される表示画面(ユーザインタフェース)の説明をする。図13は、企画担当者101の端末102に表示される、入力画像の選択及びあいまい情報の入力を行うための画像変換サービス画面を示す図である。企画担当者101の端末102のCPUは、この図13に示す画像変換サービス画面1300の画像選択ボタン1301の操作を検出すると、端末102に記憶されている画像のうち、企画担当者101により、選択された画像を、入力画像109として、入力画像表示領域1302に表示制御する。
また、各入力画像109(端末102に記憶されている各画像)には、その画像(衣服)に対するあいまい情報が付加されている。具体的には、図13の例は、企画担当者101により選択された入力画像109に対して、「性別:女性」、「年齢:10代」、「テーマ:カジュアル」、「雰囲気:おとなしい」、「着用場所:学校」等のあいまい情報が付加されている例である。端末102のCPUは、この付加されているあいまい情報を、元画像(入力画像109)のあいまい情報として、画像変換サービス画面1300に表示制御する。
また、端末102のCPUは、画像変換サービス画面1300に対して、企画担当者101が希望するデザインに対応するあいまい情報の入力を行うための、あいまい情報入力領域1304を表示制御する。一例として、端末102のCPUは、このあいまい情報入力領域1304に、各大分類のプルダウンメニューを表示する。そして、この大分類のプルダウンメニューが操作された際に、操作された大分類のプルダウンメニューに含まれる小分類の項目を表示する。図13の例は、企画担当者101が希望するデザインに対応するあいまい情報として、「性別:女性」、「年齢:20代」、「テーマ:カジュアル」、「雰囲気:かわいい」、「着用場所:学校」等のあいまい情報が入力された例を示している。
このように、企画担当者101が希望するデザインに対応するあいまい情報の入力後において、実行ボタン1305の操作を検出すると、端末102のCPUは、入力画像109及び企画担当者101により入力されたあいまい情報を、画像処理装置103の入力部300に送信する。
図14は、企画担当者101の端末102に表示される変換画像111の表示画面(画像変換サービス結果画面)を示す図である。画像生成部305であいまい情報に基づく画像処理が実行されると、端末102のCPUは、入力画像109及び企画担当者101により入力されたあいまい情報1403を含む画像変換サービス結果画面1401を表示する。また、CPUは、画像変換サービス結果画面1401に、画像生成部305で生成された一つ又は複数の変換画像111を、作成時刻が新しい順に、変換画像一覧領域1404に一覧表示する。
(画像変換サービス画面の変形例)
次に、図15に、画像変換サービス画面の変形例を示す。図13に示す例は、企画担当者101により選択された画像、プルダウンメニューにより入力を行うあいまい情報入力領域1304を表示する例であった。これに対して、図15に示す変形例の場合、端末102のCPUは、画像選択ボタン1301、入力画像表示領域1302と、実行ボタン1305、あいまい情報入力領域1503、変換画像単一表示領域1502、及び、他の変換画像111の表示を指定するための結果変換ボタン1501を表示する。
端末102のCPUは、あいまい情報入力領域1503に対しては、大分類毎の各小分類のあいまい情報の入力を行うためのスライドバーを表示する。この図15の例は、テーマ、年齢、雰囲気、着用場所及び性別の各大分類の項目が表示された例である。CPUは、各大項目の表示領域に、各大項目に含まれる小項目及び小項目のスコアを調整(設定)するためのスライドバー1506を表示する。また、CPUは、現在、表示されていない小項目(限られた表示領域内に表示し切れない小項目)の表示を指定するための表示切り替えボタン1509を表示する。
また、CPUは、スライドバー1506の可動領域1507に対して、現在設定されている小項目のスコア(値)を、所定のマーカ1508で表示する。図15の例は、例えばテーマの大分類のカジュアルの小項目に対しては、60%程度のカジュアル度に対応するスコアが設定されていることを示している。同様に、図15の例は、例えばテーマの大分類のスポーティの小項目に対しては、30%程度のスポーティ度に対応するスコアが設定されていることを示している。
カジュアルの小項目において、企画担当者101により、スライドバー1506が右方向に移動操作されると、CPUは、変換印象情報の「カジュアル度」を、スライドバー1506の操作量に対応して増加させる。反対に、スライドバー1506が左方向に移動操作されると、CPUは、変換印象情報の「カジュアル度」を、スライドバー1506の操作量に対応して減少させる。
または、可動領域1507を、あいまい情報における小分類「カジュアル」のスコアの範囲とし、CPUは、スライドバー1506の位置から、「カジュアル」のスコアを算出してもよい。なお、前後ボタン1509の操作を検出すると、端末102のCPUは、現在表示されていない小分類の項目及びスライドバー1506等を表示する。また、CPUは、結果変換ボタン1501の操作を検出する毎に、端末102内に記憶されている、過去に生成された変換画像111を切り替えて、変換画像単一表示領域1502に表示制御する。
CPUは、実行ボタン1305の操作を検出すると、入力画像109とスライドバー1506でスコアが調整されたあいまい情報を、画像処理装置103の入力部300に送信する。画像処理装置103は、上述の画像処理を実行することで、単一の変換画像111を生成して企画担当者101の端末102に返信する。端末102のCPUは、画像処理装置103から受信した単一の変換画像111を、変換画像単一表示領域1502に表示する。
企画担当者101は、変換画像単一表示領域1502に、自分の思惑とは異なる雰囲気又はテーマ等の変換画像111が表示された場合、再度、所望の小項目のスライドバー1506を操作してスコアの調整を行い、画像処理装置103に送信する。これにより、調整されたスコアに基づいて画像処理装置103で生成された変換画像111が、再度、変換画像単一表示領域1502に表示される。
このように、企画担当者101は、自分の思惑とは異なる雰囲気又はテーマ等の変換画像111が生成された場合でも、スライドバー1506によるあいまい情報のスコアの調整を繰り返し行うことで、希望する変換画像111を得ることができる。企画担当者101は、変換画像一覧領域1404又は変換画像単一表示領域1502に表示された変換画像111により、雰囲気又はテーマ等のあいまい情報で指定した自分のデザインが具現化された製品を認識したうえで、製品等のデザインを決定することができる。
(画像処理装置の処理の流れ)
次に、図16のフローチャートを用いて、画像処理装置103の画像変換処理の流れを説明する。この図16のフローチャートにおいて、まず、入力部300は、企画担当者101が端末102を操作することで送信された、入力画像及びあいまい情報を取得する(ステップS1)。
次に、入力部300は、取得したあいまい情報から変換あいまい情報を算出する。また、画像解析部301は、入力部300から取得した入力画像と、学習部303から取得した画像学習モデルを用いて、画像情報及び対象あいまい情報を算出する(ステップS2)。
次に、パーツ画像生成部304は、入力部300から取得した変換あいまい情報、画像解析部301から取得した画像情報及び対象あいまい情報、及び、学習部303から取得したパーツ学習モデルを用いて、パーツ画像を生成する(ステップS3)。
次に、画像生成部305は、入力部300から取得した入力画像と、パーツ画像生成部304で生成されたパーツ画像を合成処理することで、企画担当者101があいまい情報で指定したデザインが反映された変換画像111を生成する(ステップS4)。
次に、パーツ画像生成部304は、ステップS4で生成した変換画像111を、企画担当者101の端末102に送信して表示する(ステップS5)。これにより、企画担当者101は、あいまい情報で指定した自分のデザインが具現化された製品等の画像を認識することができる。
(第1の実施の形態の効果)
以上の説明から明らかなように、第1の実施の形態の製品開発システムは、入力部300で、入力画像109と、入力画像109に施すデザインをあいまいに表現したあいまい情報110の入力を受け付ける。画像解析部301は、入力部300から送信された入力画像109と、学習部303から送信された画像学習モデルに基づいて、入力画像109の画像情報(デザイン対象の位置情報、向き情報及びサイズ情報(大きさ))及び対象あいまい情報400を生成する。パーツ画像生成部304は、入力画像109と対象あいまい情報400と画像情報に基づいて、入力画像109に付加するパーツ画像を生成する。そして、画像生成部305が、入力画像109及びパーツ画像を合成した変換画像111を生成して出力する。
これにより、ユーザからあいまいな表現でデザインが指定された場合でも、ユーザの思惑に沿ったデザインの製品画像を生成して表示することができる。従って、既存の製品画像の部分的な変更を、違和感なく施すことができる。
[第2の実施の形態]
次に、第2の実施の形態の製品開発システムの説明をする。上述の第1の実施の形態の説明では、パーツ画像生成部304は、学習部303で生成されたパーツ学習モデルに基づいてパーツ画像を生成し、画像生成部305は、入力画像に対してパーツ画像を合成して変換画像111を生成することとした。
これに対して、第2の実施の形態の製品開発システムでは、学習部303が、図17に示すように、上述の構成に加えて、画像合成学習部905を有している。この画像合成学習部905は、学習情報ID、画像情報、対象あいまい情報、パーツ画像及び変換あいまい情報を含む学習情報の一部から、パーツ画像の合成時の位置関係を学習した画像合成学習モデルを生成する。そして、この画像合成学習モデルを、図18に示すように画像生成部305に供給する。
画像生成部305は、パーツ画像生成部304からのパーツ画像を、学習部303からの画像合成学習モデルに基づいて、入力画像109に合成処理して変換画像111を生成する。上述のように、画像合成学習モデルは、パーツ画像の合成時の位置関係を学習した情報である。このため、入力画像109に対して、より正確に、また、違和感なくパーツ画像を合成することができる他、上述の第1の実施の形態と同様の効果を得ることができる。
[第3の実施の形態]
次に、第3の実施の形態の製品開発システムの説明をする。上述の第1の実施の形態の説明では、あいまい情報110をテキストデータで入力した例であった。
これに対して、第3の実施の形態の製品開発システムは、図19に示すようにあいまい情報110を画像情報で入力可能とした例である。例えば、Tシャツのデザインをドレッシーなデザインにした場合、企画担当者102は、Tシャツの画像を入力画像とし、ドレスの画像をあいまい画像として入力部300に入力する。
入力部300は、Tシャツの入力画像及びドレスのあいまい画像を、画像解析部301に転送する。画像解析部301は、学習部303からの画像学習モデルを用いて、Tシャツの入力画像及びドレスのあいまい画像に対応する対象あいまい情報及び変換あいまい情報を生成してパーツ画像生成部304に供給する。
これにより、パーツ画像生成部304において、Tシャツのデザインをドレッシーなデザインにするためのパーツ画像が生成され、画像生成部305において、Tシャツの入力画像と合成される。
このような第3の実施の形態の場合、あいまい情報109の画像入力に対応できる他、上述の各実施の形態と同様の効果を得ることができる。
最後に、上述の各実施の形態は、一例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な各実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。
例えば、あいまい情報110の入力は、上述のテキストデータ及び画像情報の他、音声情報で行ってもよい。この場合、入力部300は、例えば「かわいい」又は「スポーティ」等のあいまいなデザインの音声入力を検出して、図5に示した変換あいまい情報を生成することとなる。
また、画像生成部305により生成された合成画像を、コピー&ペースト、及び、印刷可能としてもよい。この場合、企画担当者101の端末102のCPUは、図20に示すように、画像変換サービス画面1500に対して「印刷ボタン2000」を表示する。端末102のCPUは、この印刷ボタン2000の操作を検出すると、変換画像111の印刷データをプリンタ装置に送信して、印刷を実行させる。これにより、画像生成部305により生成された合成画像を印刷することができる。
また、上述の実施の形態の説明では、学習部303が畳み込みニューラルネットワークにより構成されるものとして説明したが、画像モデル学習部901及びパーツモデル学習部902の構成はこれに限定されない。画像モデル学習部901については、処理対象の入力画像から、該入力画像に含まれる物品のイメージを適切に出力する学習機能を有していればよい。また、パーツモデル学習部902については、処理対象の入力画像に含まれる物品の画像情報と変換イメージから、最適な組み合わせとなるパーツ画像を出力する学習機能を有していればよい。
また、画像処理装置103とネットワーク108を介して企画担当者101の端末102と直接データの送受信を行う構成としたが、画像処理装置103とネットワーク108との間にサーバ装置を設け、このサーバ装置で、画像処理装置103の機能の一部を実現する構成としてもよい。
また、画像処理装置103が各格納部(画像学習情報格納部903、パーツ学習情報格納部904)を有するものとして説明したが、各格納部は、画像処理装置103とは別体の外部装置が有する構成としてもよい。
また、入力画像109である変換の対象を衣服として説明したが、変換の対象は衣服に限定されるものではない。
さらに、上述の各実施の形態の構成等に、その他の装置又はデバイスとの組み合わせ等、上述の構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。そして、このような各実施の形態及び各実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
100 製品開発システム
102 企画担当者の端末
103 画像処理装置
107 情報処理担当者の端末
109 入力画像
110 あいまい情報
111 変換画像
300 入力部
301 画像解析部
302 データ入力部
303 学習部
304 パーツ画像生成部
305 画像生成部
900 学習情報入力部
901 画像モデル学習部
902 パーツモデル学習部
1300 画像変換サービス画面
1401 画像変換サービス結果画面
1500 画像変換サービス画面
特開2002-297689号公報

Claims (13)

  1. 入力画像のデザイン対象に施すデザインをあいまいに表現したあいまい情報に基づいて、前記あいまい情報を所定の分類に基づいて数値化した第1の情報を生成する第1の情報生成部と、
    前記入力画像を解析して、少なくとも前記入力画像のデザイン対象の態様を示す画像情報を出力すると共に、前記入力画像のデザイン対象を所定の分類に基づいて数値化した第2の情報を生成する第2の情報生成部と、
    前記あいまい情報を所定の分類に基づいて数値化した前記第1の情報、前記画像情報、及び、前記入力画像のデザイン対象を所定の分類に基づいて数値化した前記第2の情報に基づいて、前記デザイン対象に付加するパーツ画像を生成するパーツ画像生成部と、
    前記入力画像の前記デザイン対象に前記パーツ画像を付加した合成画像を生成する画像生成部と、
    少なくとも任意画像と前記任意画像に関する画像情報と前記任意画像の印象を含む情報を複数の任意画像に対して収集した情報群を学習情報とし、前記学習情報を学習して画像学習モデルを生成する学習部と、
    を有し、
    前記第2の情報生成部は、前記学習部からの前記画像学習モデルに基づいて、前記入力画像を解析して前記画像情報を生成すると共に、前記入力画像のデザイン対象を所定の分類に基づいて数値化した前記第2の情報を生成すること
    を特徴とする画像処理装置。
  2. 入力画像のデザイン対象に施すデザインをあいまいに表現したあいまい情報に基づいて、前記あいまい情報を所定の分類に基づいて数値化した第1の情報を生成する第1の情報生成部と、
    前記入力画像を解析して、少なくとも前記入力画像のデザイン対象の態様を示す画像情報を出力すると共に、前記入力画像のデザイン対象を所定の分類に基づいて数値化した第2の情報を生成する第2の情報生成部と、
    前記あいまい情報を所定の分類に基づいて数値化した前記第1の情報、前記画像情報、及び、前記入力画像のデザイン対象を所定の分類に基づいて数値化した前記第2の情報に基づいて、前記デザイン対象に付加するパーツ画像を生成するパーツ画像生成部と、
    前記入力画像の前記デザイン対象に前記パーツ画像を付加した合成画像を生成する画像生成部と、
    少なくとも任意画像と前記任意画像に関する画像情報と前記任意画像の印象と前記任意画像を構成する要素を含む情報を複数の任意画像に対して収集した情報群を学習情報とし、前記学習情報を学習してパーツ学習モデルを生成する学習部と、
    を有し、
    前記パーツ画像生成部は、前記第1の情報、前記画像情報、前記第2の情報、及び、前記パーツ学習モデルに基づいて、前記デザイン対象に付加するパーツ画像を生成すること
    を特徴とする画像処理装置。
  3. 前記学習部は、前記パーツ学習モデルを学習することで、前記パーツ画像の合成時の位置関係を学習した画像合成学習モデルを生成し、
    前記画像生成部は、前記入力画像の前記デザイン対象に前記パーツ画像を付加する際に、前記画像合成学習モデルで示される位置関係を参照して、前記デザイン対象に前記パーツ画像を付加した合成画像を生成すること
    を特徴とする請求項に記載の画像処理装置。
  4. 前記第2の情報は、各前記分類の最も数値が高い項目の集合情報であること
    を特徴とする請求項1から請求項のうち、いずれか一項に記載の画像処理装置。
  5. 前記画像情報は、少なくとも前記入力画像のデザイン対象を構成する部位の位置情報及びサイズ情報を含むこと
    を特徴とする請求項1から請求項のうち、いずれか一項に記載の画像処理装置。
  6. 前記あいまい情報は、物品又は人物が人に与える印象であり、前記物品を用いるユーザの性別、年齢、前記物品が利用される場面又は条件を含む人の主観による指標を示す情報であること
    を特徴とする請求項1から請求項のうち、いずれか一項に記載の画像処理装置。
  7. 前記パーツ画像生成部は、一つの入力画像に対して、一つ以上の要素の異なるパーツ画像を生成し、
    前記画像生成部は、前記パーツ画像生成部によって生成されたパーツ画像の数に応じて、前記パーツ画像を付加した合成画像を生成すること
    を特徴とする請求項1から請求項のうち、いずれか一項に記載の画像処理装置。
  8. 前記第1の情報生成部は、テキストデータ、画像情報又は音声情報で前記あいまい情報を取得すること
    を特徴とする請求項1から請求項のうち、いずれか一項に記載の画像処理装置。
  9. 第1の情報生成部が、入力画像のデザイン対象に施すデザインをあいまいに表現したあいまい情報に基づいて、前記あいまい情報を所定の分類に基づいて数値化した第1の情報を形成する第1の情報形成ステップと、
    第2の情報生成部が、前記入力画像を解析して、少なくとも前記入力画像のデザイン対象の態様を示す画像情報を出力すると共に、前記入力画像のデザイン対象を所定の分類に基づいて数値化した第2の情報を生成する第2の情報生成ステップと、
    パーツ画像生成部が、前記あいまい情報を所定の分類に基づいて数値化した前記第1の情報、前記画像情報、及び、前記入力画像のデザイン対象を所定の分類に基づいて数値化した前記第2の情報に基づいて、前記デザイン対象に付加するパーツ画像を生成するパーツ画像生成ステップと、
    画像生成部が、前記入力画像の前記デザイン対象に前記パーツ画像を付加した合成画像を生成する画像生成ステップと、
    学習部が、複数の任意画像に対して収集した情報群を学習情報とし、前記学習情報を学習して画像学習モデルを生成するステップと、
    を有し、
    前記第2の情報生成ステップでは、前記学習部からの前記画像学習モデルに基づいて、前記入力画像を解析して前記画像情報を生成すると共に、前記入力画像のデザイン対象を所定の分類に基づいて数値化した前記第2の情報を生成すること
    を特徴とする画像処理方法。
  10. 第1の情報生成部が、入力画像のデザイン対象に施すデザインをあいまいに表現したあいまい情報に基づいて、前記あいまい情報を所定の分類に基づいて数値化した第1の情報を形成する第1の情報形成ステップと、
    第2の情報生成部が、前記入力画像を解析して、少なくとも前記入力画像のデザイン対象の態様を示す画像情報を出力すると共に、前記入力画像のデザイン対象を所定の分類に基づいて数値化した第2の情報を生成する第2の情報生成ステップと、
    パーツ画像生成部が、前記あいまい情報を所定の分類に基づいて数値化した前記第1の情報、前記画像情報、及び、前記入力画像のデザイン対象を所定の分類に基づいて数値化した前記第2の情報に基づいて、前記デザイン対象に付加するパーツ画像を生成するパーツ画像生成ステップと、
    画像生成部が、前記入力画像の前記デザイン対象に前記パーツ画像を付加した合成画像を生成する画像生成ステップと、
    学習部が、少なくとも任意画像と前記任意画像に関する画像情報と前記任意画像の印象と前記任意画像を構成する要素を含む情報を複数の任意画像に対して収集した情報群を学習情報とし、前記学習情報を学習してパーツ学習モデルを生成するステップと、
    を有し、
    前記パーツ画像生成ステップでは、前記第1の情報、前記画像情報、前記第2の情報、及び、前記パーツ学習モデルに基づいて、前記デザイン対象に付加するパーツ画像を生成すること
    を特徴とする画像処理方法。
  11. コンピュータを、
    入力画像のデザイン対象に施すデザインをあいまいに表現したあいまい情報に基づいて、前記あいまい情報を所定の分類に基づいて数値化した第1の情報を生成する第1の情報生成部と、
    前記入力画像を解析して、少なくとも前記入力画像のデザイン対象の態様を示す画像情報を出力すると共に、前記入力画像のデザイン対象を所定の分類に基づいて数値化した第2の情報を生成する第2の情報生成部と、
    前記あいまい情報を所定の分類に基づいて数値化した前記第1の情報、前記画像情報、及び、前記入力画像のデザイン対象を所定の分類に基づいて数値化した前記第2の情報に基づいて、前記デザイン対象に付加するパーツ画像を生成するパーツ画像生成部と、
    前記入力画像の前記デザイン対象に前記パーツ画像を付加した合成画像を生成する画像生成部と
    少なくとも任意画像と前記任意画像に関する画像情報と前記任意画像の印象を含む情報を複数の任意画像に対して収集した情報群を学習情報とし、前記学習情報を学習して画像学習モデルを生成する学習部として機能させ
    前記第2の情報生成部は、前記学習部からの前記画像学習モデルに基づいて、前記入力画像を解析して前記画像情報を生成すると共に、前記入力画像のデザイン対象を所定の分類に基づいて数値化した前記第2の情報を生成すること
    を特徴とする画像処理プログラム。
  12. コンピュータを、
    入力画像のデザイン対象に施すデザインをあいまいに表現したあいまい情報に基づいて、前記あいまい情報を所定の分類に基づいて数値化した第1の情報を生成する第1の情報生成部と、
    前記入力画像を解析して、少なくとも前記入力画像のデザイン対象の態様を示す画像情報を出力すると共に、前記入力画像のデザイン対象を所定の分類に基づいて数値化した第2の情報を生成する第2の情報生成部と、
    前記あいまい情報を所定の分類に基づいて数値化した前記第1の情報、前記画像情報、及び、前記入力画像のデザイン対象を所定の分類に基づいて数値化した前記第2の情報に基づいて、前記デザイン対象に付加するパーツ画像を生成するパーツ画像生成部と、
    前記入力画像の前記デザイン対象に前記パーツ画像を付加した合成画像を生成する画像生成部と、
    少なくとも任意画像と前記任意画像に関する画像情報と前記任意画像の印象と前記任意画像を構成する要素を含む情報を複数の任意画像に対して収集した情報群を学習情報とし、前記学習情報を学習してパーツ学習モデルを生成する学習部として機能させ、
    前記パーツ画像生成部は、前記第1の情報、前記画像情報、前記第2の情報、及び、前記パーツ学習モデルに基づいて、前記デザイン対象に付加するパーツ画像を生成すること
    を特徴とする画像処理プログラム。
  13. 前記入力画像及び前記あいまい情報の入力を行う入力装置と、
    請求項1から請求項のうち、いずれか一項に記載の画像処理装置と、
    前記画像処理装置により生成された前記合成画像を出力するための出力装置と
    を有する製品開発システム。
JP2019053583A 2019-03-20 2019-03-20 画像処理装置、画像処理方法、画像処理プログラム及び製品開発システム Active JP7263864B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019053583A JP7263864B2 (ja) 2019-03-20 2019-03-20 画像処理装置、画像処理方法、画像処理プログラム及び製品開発システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019053583A JP7263864B2 (ja) 2019-03-20 2019-03-20 画像処理装置、画像処理方法、画像処理プログラム及び製品開発システム

Publications (2)

Publication Number Publication Date
JP2020154844A JP2020154844A (ja) 2020-09-24
JP7263864B2 true JP7263864B2 (ja) 2023-04-25

Family

ID=72559249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019053583A Active JP7263864B2 (ja) 2019-03-20 2019-03-20 画像処理装置、画像処理方法、画像処理プログラム及び製品開発システム

Country Status (1)

Country Link
JP (1) JP7263864B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022145525A1 (ko) 2020-12-29 2022-07-07 주식회사 디자이노블 학습된 조건 기반의 디자인 생성 방법 및 그 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297689A (ja) 2001-04-03 2002-10-11 Toppan Printing Co Ltd 柄デザインシミュレーションシステム及び柄デザインシミュレーションシステムに用いるサーバ及び柄デザインシミュレーション方法並びにプログラム及びプログラムを記録したコンピュータに読み取り可能な記録媒体及び出力物
JP2004252996A (ja) 1997-10-13 2004-09-09 Matsushita Electric Ind Co Ltd ファジィ推論方法及びその装置
JP2004318187A (ja) 2003-02-24 2004-11-11 Matsushita Electric Ind Co Ltd 画像生成装置および画像生成システム
JP2010004574A (ja) 2009-10-05 2010-01-07 Seiko Epson Corp 画像合成システムおよび画像合成プログラム、並びに画像合成方法
JP2014149678A (ja) 2013-02-01 2014-08-21 Panasonic Corp 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム
WO2016009569A1 (ja) 2014-07-17 2016-01-21 Necソリューションイノベータ株式会社 属性要因分析方法、装置、およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004252996A (ja) 1997-10-13 2004-09-09 Matsushita Electric Ind Co Ltd ファジィ推論方法及びその装置
JP2002297689A (ja) 2001-04-03 2002-10-11 Toppan Printing Co Ltd 柄デザインシミュレーションシステム及び柄デザインシミュレーションシステムに用いるサーバ及び柄デザインシミュレーション方法並びにプログラム及びプログラムを記録したコンピュータに読み取り可能な記録媒体及び出力物
JP2004318187A (ja) 2003-02-24 2004-11-11 Matsushita Electric Ind Co Ltd 画像生成装置および画像生成システム
JP2010004574A (ja) 2009-10-05 2010-01-07 Seiko Epson Corp 画像合成システムおよび画像合成プログラム、並びに画像合成方法
JP2014149678A (ja) 2013-02-01 2014-08-21 Panasonic Corp 美容支援装置、美容支援システム、美容支援方法、並びに美容支援プログラム
WO2016009569A1 (ja) 2014-07-17 2016-01-21 Necソリューションイノベータ株式会社 属性要因分析方法、装置、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
河原 達也,音声言語を用いた仮想空間との対話による試着システム,情報処理学会論文誌 第39巻 第5号,日本,社団法人情報処理学会,1998年05月15日,Vol.39 No.5,P.1267-1274

Also Published As

Publication number Publication date
JP2020154844A (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
US5450314A (en) Data processing methods and apparatus for supporting analysis/judgement
CN110246011B (zh) 可解释时尚服装个性化推荐方法
Stangl et al. Browsewithme: An online clothes shopping assistant for people with visual impairments
US20180308149A1 (en) Systems and methods to curate, suggest and maintain a wardrobe
CN112970047A (zh) 用于使用产品描述自动生成三维虚拟服装模型的系统和方法
CN104951966A (zh) 推荐服饰商品的方法及装置
CN106055710A (zh) 基于视频的商品推荐方法及装置
CN110956579B (zh) 一种基于生成语义分割图的文本改写图片方法
US20210406996A1 (en) Systems and methods for improved facial attribute classification and use thereof
US11783408B2 (en) Computer vision based methods and systems of universal fashion ontology fashion rating and recommendation
US20210160018A1 (en) Automated customization with compatible objects
Vuruskan et al. Intelligent fashion styling using genetic search and neural classification
JP7263864B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム及び製品開発システム
Hall et al. Vision-language models performing zero-shot tasks exhibit gender-based disparities
CN111400525A (zh) 基于视觉组合关系学习的时尚服装智能搭配与推荐方法
JP2014229129A (ja) 組み合わせ提示装置及びコンピュータプログラム
JP2015228129A (ja) コーディネート推薦装置及びプログラム
Ying et al. Mmt-bench: A comprehensive multimodal benchmark for evaluating large vision-language models towards multitask agi
Pancho et al. Enhancing Fingrams to deal with precise fuzzy systems
WO2020079235A1 (en) Method and apparatus for accessing clothing
Mu et al. Fashion intelligence in the Metaverse: promise and future prospects
Song et al. Research Frontiers
Podlasov et al. Japanese street fashion for young people: A multimodal digital humanities approach for identifying sociocultural patterns and trends
US20210103943A1 (en) Hit or miss insight analysis
CN109255807A (zh) 一种图像信息处理方法及服务器、计算机存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R151 Written notification of patent or utility model registration

Ref document number: 7263864

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151