JP2023004331A - 情報処理装置 - Google Patents
情報処理装置 Download PDFInfo
- Publication number
- JP2023004331A JP2023004331A JP2021105944A JP2021105944A JP2023004331A JP 2023004331 A JP2023004331 A JP 2023004331A JP 2021105944 A JP2021105944 A JP 2021105944A JP 2021105944 A JP2021105944 A JP 2021105944A JP 2023004331 A JP2023004331 A JP 2023004331A
- Authority
- JP
- Japan
- Prior art keywords
- clothing
- data
- background
- learning
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 52
- 238000000605 extraction Methods 0.000 claims abstract description 26
- 239000000284 extract Substances 0.000 claims abstract description 18
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 27
- 238000000034 method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 235000019640 taste Nutrition 0.000 description 3
- 230000037237 body shape Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- -1 sizes Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】人物モデルが背景上で被服を身に着けた画像を簡便に生成する情報処理装置を提供する。【解決手段】ユーザ端末及び情報処理装置が、ネットワークで通信可能に接続する情報処理システムにおいて、情報処理装置は、複数の異なる人物モデルデータと、複数の異なる被服を示す被服データと、複数の異なる背景を示す背景データとを記憶する記憶部と、画像生成要求を取得する取得部と、取得された前記画像生成要求において、人物モデル、被服及び背景が指定されている場合に、指定された人物モデルに対応する人物モデルデータと、指定された被服に対応する被服データと、指定された背景に対応する背景データとを記憶部の記憶内容から抽出する抽出部と、抽出された人物モデルデータ、被服データ及び背景データを用いて、人物モデルが背景にて被服を身に着けた画像を示す画像データを生成する画像生成部と、生成された画像データを出力する出力部と、を備える。【選択図】図4
Description
本発明は、人物モデルが被服を身に着けた画像を生成する技術に関する。
被服をインターネット上で販売するイーコマースにおいて、人物モデルが被服を身に着けた画像を掲載する場合と、被服のみの画像を掲載する場合とでは、前者のほうが売り上げのよいことが知られている。このような被服のイーコマースに関して例えば特許文献1には、ユーザによって指定された体形の人物モデルがユーザによって選択された衣類を身に着けた画像を表示し、ユーザにより購入ボタンがクリックされると、その衣類の注文を受け付けるシステムが開示されている。
被服を身に着ける人物モデルには、様々な体形や雰囲気の人物モデルが存在する。また、被服を身に着けた人物モデルの背景は、その被服や人物モデルの印象に影響を与える。
そこで、本発明は、様々な被服、様々な人物モデル及び様々な背景を任意に組み合わせて、人物モデルが背景上で被服を身に着けた画像を簡便に生成できるような仕組みを提供することを目的とする。
上記課題を解決するため、本発明は、複数の異なる人物モデルを示す人物モデルデータと、複数の異なる被服を示す被服データと、複数の異なる背景を示す背景データとを記憶する記憶部と、画像生成要求を取得する取得部と、取得された前記画像生成要求において、人物モデル、被服及び背景が指定されている場合に、指定された人物モデルに対応する人物モデルデータと、指定された被服に対応する被服データと、指定された背景に対応する背景データとを前記記憶部の記憶内容から抽出する抽出部と、抽出された前記人物モデルデータ、前記被服データ及び前記背景データを用いて、前記人物モデルが前記背景にて前記被服を身に着けた画像を示す画像データを生成する画像生成部と、生成された前記画像データを出力する出力部とを備えることを特徴とする情報処理装置提供する。
本発明によれば、様々な被服、様々な人物モデル及び様々な背景を任意に組み合わせて、人物モデルが背景上で被服を身に着けた画像を簡便に生成することができる。
[構成]
図1は、本実施形態に係る情報処理システム1の一例を示す図である。情報処理システム1は、多数のユーザに対して様々な被服を販売する、いわゆるイーコマースをネットワーク上で実現するべく、被服を身に着けた人物モデルを含む様々な画像を生成するためのシステムである。ここでいう被服とは、着装の目的で人体の各部を覆い包む被覆物の総称のことであり、各種の衣服のほか、被り物や履物などを含む。
図1は、本実施形態に係る情報処理システム1の一例を示す図である。情報処理システム1は、多数のユーザに対して様々な被服を販売する、いわゆるイーコマースをネットワーク上で実現するべく、被服を身に着けた人物モデルを含む様々な画像を生成するためのシステムである。ここでいう被服とは、着装の目的で人体の各部を覆い包む被覆物の総称のことであり、各種の衣服のほか、被り物や履物などを含む。
被服を対象としたイーコマースにおいて、人物モデルが被服を身に着けた画像をWebサイトに掲載する場合と、被服のみの画像をWebサイトに掲載する場合とでは、前者のほうが売り上げのよいことが知られている。さらに、人物モデルには様々な外観や個性、雰囲気があることから、被服を身に着ける人物モデルによってもその被服の売れ行きが増減することも知られている。加えて、近年では、被服を身に着けた人物モデルをスタジオで撮影するだけでなく、屋外で撮影する機会も多くなっている。そこで、被服を身に着ける人物モデルの背景によって醸し出される雰囲気によってもその被服の売れ行きに影響を与えることが考えられる。そこで、本実施形態では、様々な被服、人物モデル及び背景といった各要素を任意に組み合わせて画像を生成することを目的の1つとしている。さらに、このような画像を、より多くの売り上げが見込めるような被服、人物モデル及び背景の組み合わせによって生成することを目的の1つとしている。
図1に示すように、情報処理システム1は、被服の販売者たるユーザが通信端末として利用するユーザ端末10と、本発明に係る情報処置装置の一例として機能する情報処理装置30と、ユーザ端末10及び情報処理装置30を通信可能に接続する無線ネットワーク又は有線ネットワークを含むネットワーク20とを備えている。ユーザ端末10は、例えばスマートホン、ウェアラブル端末、タブレット又はパーソナルコンピュータなどの、無線又は有線を介してネットワーク20に接続可能なコンピュータである。なお、図1には、被服の販売者たるユーザが利用するユーザ端末10を1つしか示していないが、実際には、被服のメーカや小売店等の販売者単位で複数存在する。
図2は、ユーザ端末10のハードウェア構成を示す図である。ユーザ端末10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、及びこれらを接続するバスなどを含むコンピュータとして構成されている。これらの各装置は図示せぬ電源から供給される電力によって動作する。なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。ユーザ端末10のハードウェア構成は、図2に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。また、それぞれ筐体が複数の異なる装置が通信接続されて、ユーザ端末10を構成してもよい。
ユーザ端末10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。また、例えばベースバンド信号処理部や呼処理部などがプロセッサ1001によって実現されてもよい。
プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、後述する動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。ユーザ端末10の機能ブロックは、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよい。各種の処理は、1つのプロセッサ1001によって実行されてもよいが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワーク20からユーザ端末10に送信されてもよい。
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本実施形態に係る方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。
通信装置1004は、ネットワーク20を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置1004は、無線通信を実現する場合には、例えばLTE(Long Time Evolution)等の通信規格に従ってネットワーク20を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)である。通信装置1004は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。また、送受信アンテナ、アンプ部、送受信部、伝送路インターフェースなどがこの通信装置1004によって実現されてもよい。送受信部は、送信部と受信部とで、物理的に、又は論理的に分離された実装がなされてもよい。
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キー、マイクロフォン、スイッチ、ボタン、カメラ、センサ、2次元コードリーダなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバスによって接続される。バスは、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
ユーザ端末10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
図3は、情報処理装置30のハードウェア構成を示す図である。情報処理装置30は、物理的には図2に示すユーザ端末10と同様に、プロセッサ3001、メモリ3002、ストレージ3003、通信装置3004、及びこれらを接続するバスなどを含むコンピュータとして構成されている。これらの各装置は図示せぬ電源から供給される電力によって動作する。情報処理装置30のハードウェア構成は、図3に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。また、それぞれ筐体が複数の異なる装置が通信接続されて、情報処理装置30を構成してもよい。
情報処理装置30における各機能は、プロセッサ3001、メモリ3002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ3001が演算を行い、通信装置3004による通信を制御したり、メモリ3002及びストレージ3003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。プロセッサ3001、メモリ3002、ストレージ3003、通信装置3004、及びこれらを接続するバスは、ユーザ端末10について説明したプロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、及びこれらを接続するバスと、ハードウェアとしては同様であるため、その詳細な説明を省略する。なお、情報処理装置30は、ユーザ端末10の入力装置1005又は出力装置1006と同等のハードウェアを備えていてもよいし、備えていなくてもよい。
図4は、情報処理装置30の機能構成を示すブロック図である。情報処理装置30によって実現される各機能は、プロセッサ3001、メモリ3002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ3001が演算を行い、通信装置3004による通信を制御したり、メモリ3002及びストレージ3003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。具体的には、情報処理装置30において、取得部31、記憶部32、抽出部33、画像生成部34、出力部35、及び学習部36という機能が実現される。
取得部31は、ユーザ端末10等から各種の情報をネットワーク20経由で取得する。例えばユーザ端末10において、被服の販売者が販売対象となる被服、その被服を身に着ける人物モデル及びその被服を身に着けた人物モデルの背景を、情報処理装置30からの指示でユーザ端末10によって提示されたリストから選択すると、取得部31は、選択された被服、人物モデル及び背景を指定した画像生成要求をユーザ端末10から取得する。
記憶部32は、複数の異なる人物モデルを示す人物モデルデータ、複数の異なる被服を示す被服データ、及び、複数の異なる背景を示す背景データを記憶する。記憶部32に記憶されたこれらのデータに基づいて、上述したようにユーザ端末10にて販売者に提示されるリストが生成され、情報処理装置30からユーザ端末10に送信される。これら人物モデルデータ、被服データ及び背景データのデータ構造を、図5~7に例示する。
図5に例示するように、各被服データは、各被服を識別するための被服IDと、各被服の画像を示す被服画像データと、各被服の属性である被服属性とを含む。各被服データは被服IDによって指定される。被服属性は、例えば被服のジャンル、タイプ、種類、色、サイズ、素材、価格、人気度等に関するデータを含んでいる。これらの被服データは、被服の販売者によって用意されたものであり、ユーザ端末10等を介して情報処理装置30に入力される。
図6に例示するように、各人物モデルデータは、各人物モデルを識別するための人物モデルIDと、各人物モデルの画像を示す人物モデル画像データと、各人物モデルの属性である人物モデル属性とを含んでいる。各人物モデルデータは人物モデルIDによって指定される。人物モデル属性は、例えば人物モデルの身長、トップバスト、アンダーバスト、裄丈、肩幅、ウエスト、腰回り、ヒップ、太もも周り、股下等の身体サイズや、そのモデルの氏名、性別、年齢、経歴、雰囲気、趣味嗜好、人気度等に関するデータを含む。これらの人物モデルデータは、被服の販売者又は情報処理装置30の管理者等によって用意されたものである。人物モデルデータが被服の販売者によって用意された場合は、ユーザ端末10等を介して情報処理装置30に入力される。
図7に例示するように、各背景データは、各背景を識別するための背景IDと、各背景の画像を示す背景画像データと、各背景の属性である背景属性を含んでいる。各背景データは背景IDによって指定される。背景属性は、例えば背景の概要、ジャンル、種類、雰囲気、色味等に関するデータを含む。これらの背景データは、被服の販売者又は情報処理装置30の管理者等によって用意されたものである。背景データが被服の販売者によって用意された場合はユーザ端末10等を介して情報処理装置30に入力される。
図4の説明に戻り、抽出部33は、取得部31がユーザ端末10から画像生成要求を取得すると、取得された画像生成要求において、被服、人物モデル及び背景の全てが指定されている場合には、指定された被服に対応する被服データと、指定された人物モデルに対応する人物モデルデータと、指定された背景に対応する背景データとを記憶部32の記憶内容から抽出する。
取得部31によって取得された画像生成要求において、被服、人物モデル及び背景のうち一部しか指定されていない場合がある。この場合、抽出部33は、後述する学習部36による学習結果を利用して記憶部32からのデータ抽出を行う。学習部36の学習方法については後で詳述するが、要するに、各々の被服、当該被服を身に着けた各々の人物モデル、又は、当該の人物モデルに対する各々の背景の相互の関係を学習するというものである。抽出部33は、人物モデル、被服及び背景のうち、画像生成要求において指定された要素を記憶部32の記憶内容から抽出し、画像生成要求において指定されていない要素を、学習部36による学習結果に従って、記憶部32の記憶内容から抽出する。
画像生成部34は、抽出部33により抽出された被服データ、人物モデルデータ及び背景データを用いて、人物モデルが背景をバックにして被服を身に着けた画像を示す画像データを生成する。より具体的には、画像生成部34は、周知の画像合成技術を利用して、抽出部33により抽出された被服データに含まれる被服画像データ、人物モデルデータに含まれる人物モデル画像データ及び背景データに含まれる背景画像データを合成することで、上記画像データを生成する。このとき、画像生成部34は、例えば2次元画像から3次元画像への変換、不要な画像の抽出及び除去、色味/光源/画素数の調整等の各種画像処理を行うことが望ましい。なお、抽出部33により抽出された被服データ、人物モデルデータ及び背景データのうち、被服画像データ、人物モデルデータ及び背景画像データは画像データの生成に用いられるが、これら以外の被服属性、人物モデル属性又は背景属性は必ずしも用いられなくてもよい。
前述したように、学習部36は、各々の被服、当該被服を身に着けた各々の人物モデル、又は、当該の人物モデルに対する各々の背景について、相互の関係を学習する。
例えば、学習部36は、各々の被服と当該被服を身に着けた各々の人物モデルとの関係を学習する。この学習は、過去の複数の画像生成要求においてそれぞれ指定された内容に基づいて行われる。具体的には、学習部36は、過去の複数の画像生成要求においてそれぞれ指定された被服の被服データを説明変数とし、過去の複数の画像生成要求においてそれぞれ指定された人物モデルの人物モデルデータを目的変数とした教師データに基づいて、例えばニューラルネットワークの教師あり学習を行って学習モデルを生成する。また、例えば学習部36は、過去の複数の画像生成要求においてそれぞれ指定された人物モデルの人物モデルデータを説明変数とし、過去の複数の画像生成要求においてそれぞれ指定された被服の被服データを目的変数とした教師データに基づいて、例えばニューラルネットワークの教師あり学習を行って学習モデルを生成する。つまり、学習部36は、過去に画像生成要求において指定された被服及び人物モデルの関係性を解析する。この解析により、過去において、多数ある被服のそれぞれをどのような人物モデルが身に着けた画像が多く生成されたかということを特定できるようになる。
このような学習を経たのちに、例えば画像生成要求において被服及び背景が指定された場合、抽出部33は、指定された被服の被服データ及び指定された背景の背景データを記憶部32の記憶内容から抽出するとともに、学習部36の学習結果から特定される、上記被服に対応する人物モデルの人物モデルデータを記憶部32の記憶内容から抽出する。また、例えば画像生成要求において人物モデル及び背景が指定されている場合、抽出部33は、指定された人物モデルの人物モデルデータ及び指定された背景の背景データを記憶部32の記憶内容から抽出するとともに、学習部36の学習結果から特定される、上記人物モデルに対応する被服の被服データを記憶部32の記憶内容から抽出する。
また、学習部36は、各々の被服と当該被服を身に着けた人物モデルに対する各々の背景との関係を学習する。具体的には、学習部36は、過去の複数の画像生成要求においてそれぞれ指定された被服の被服データを説明変数とし、過去の複数の画像生成要求においてそれぞれ指定された背景の背景データを目的変数とした教師データに基づいて、例えばニューラルネットワークの教師あり学習を行って学習モデルを生成する。また、例えば学習部36は、過去の複数の画像生成要求においてそれぞれ指定された背景の背景データを説明変数とし、過去の複数の画像生成要求においてそれぞれ指定された被服の被服データを目的変数とした教師データに基づいて、例えばニューラルネットワークの教師あり学習を行って学習モデルを生成する。つまり、学習部36は、過去に画像生成要求において指定された被服及び背景の関係性を解析する。この解析により、過去において、多数ある被服のそれぞれについてどのような背景の画像が多く生成されたかということを特定できるようになる。
このような学習を経たのちに、例えば画像生成要求において被服及び人物モデルが指定された場合、抽出部33は、指定された被服の被服データ及び指定された人物モデルの人物モデルデータを記憶部32の記憶内容から抽出するとともに、学習部36の学習結果から特定される、上記被服に対応する背景の背景データを記憶部32の記憶内容から抽出する。また、例えば画像生成要求において背景及び人物モデルが指定されている場合、抽出部33は、指定された背景の背景データ及び指定された人物モデルの人物モデルデータを記憶部32の記憶内容から抽出するとともに、学習部36の学習結果から特定される、上記背景に対応する被服の被服データを記憶部32の記憶内容から抽出する。
また、学習部36は、各々の人物モデルと当該人物モデルに対する各々の背景との関係を学習する。具体的には、学習部36は、過去の複数の画像生成要求においてそれぞれ指定された人物モデルの人物モデルデータを説明変数とし、過去の複数の画像生成要求においてそれぞれ指定された背景の背景データを目的変数とした教師データに基づいて、例えばニューラルネットワークの教師あり学習を行って学習モデルを生成する。また、例えば学習部36は、過去の複数の画像生成要求においてそれぞれ指定された背景の背景データを説明変数とし、過去の複数の画像生成要求においてそれぞれ指定された人物モデルの人物モデルデータを目的変数とした教師データに基づいて、例えばニューラルネットワークの教師あり学習を行って学習モデルを生成する。つまり、学習部36は、過去に画像生成要求において指定された人物モデル及び背景の関係性を解析する。この解析により、過去において、多数ある人物モデルのそれぞれについてどのような背景の画像が多く生成されたかということを特定できるようになる。
このような学習を経たのちに、例えば画像生成要求において被服及び人物モデルが指定された場合、抽出部33は、指定された被服の被服データ及び指定された人物モデルの人物モデルデータを記憶部32の記憶内容から抽出するとともに、学習部36の学習結果から特定される、上記人物モデルに対応する背景の背景データを記憶部32の記憶内容から抽出する。また、例えば画像生成要求において背景及び被服が指定されている場合、抽出部33は、指定された背景の背景データ及び指定された被服の被服データを記憶部32の記憶内容から抽出するとともに、学習部36の学習結果から特定される、上記背景に対応する人物モデルの人物モデルデータを記憶部32の記憶内容から抽出する。
以上の例は、被服、人物モデル及び背景のうちいずれか2つの要素が画像生成要求において指定されている場合に、指定されていない残りの1つの要素を抽出するケースであった。上述したような被服及び人物モデルの関係、人物モデル及び背景の関係、背景及び被服の関係を学習した場合には、被服、人物モデル及び背景のうちいずれか1つの要素のみが画像生成要求において指定されている場合であっても、指定されていない残りの2つの要素を抽出することも可能となる。
一例を挙げると、例えば画像生成要求において被服が指定された場合、抽出部33は、指定された被服の被服データを記憶部32の記憶内容から抽出するとともに、学習部36の学習結果から特定される、上記被服に対応する人物モデルの人物モデルデータ及び上記被服に対応する背景の背景データを記憶部32の記憶内容から抽出する。
記憶部32は、上述のようにして学習部36により生成された学習モデルを記憶する。この学習モデルは、学習部36による解析が行われるたび又は所定のタイミングで更新される。画像生成部34は、以上のようにして抽出された被服データ、人物モデルデータ及び背景データを用いて、その被服をその人物モデルがその背景にて身に着けた画像を示す画像データを生成する。過去の画像生成要求において指定された被服、人物モデル及び背景の組み合わせは、販売者の知見や経験に基づいて、或る程度の売り上げが期待できるように検討された結果である。従って、このような過去の画像に対する学習結果に基づいて、被服、人物モデル及び背景の組み合わせを選択して画像を生成することにより、より多くの売り上げを期待することができると言える。
出力部35は、ユーザ端末10等に対して各種の情報をネットワーク20経由で出力する。例えば出力部35は、画像生成部34により生成された画像データをユーザ端末10に出力する。
[動作]
次に、本実施形態の動作について説明する。図8において、情報処理装置30の取得部31は、ユーザ端末10から、画像生成要求をネットワーク20経由で取得する(ステップS11)。この画像生成要求は、販売者がユーザ端末10において指定した被服、人物モデル又は背景のうち、少なくともいずれか1以上のIDを含む。
次に、本実施形態の動作について説明する。図8において、情報処理装置30の取得部31は、ユーザ端末10から、画像生成要求をネットワーク20経由で取得する(ステップS11)。この画像生成要求は、販売者がユーザ端末10において指定した被服、人物モデル又は背景のうち、少なくともいずれか1以上のIDを含む。
次に、情報処理装置30の抽出部33は、取得された画像生成要求の指定内容を確認し、被服、人物モデル、及び背景の全てが指定されている場合には(ステップS12;全て)、指定された被服に対応する被服データと、指定された人物モデルに対応する人物モデルデータと、指定された背景に対応する背景データとを記憶部32の記憶内容から抽出する(ステップS13)。
そして、情報処理装置30の画像生成部34は、抽出部33により抽出された被服データ、人物モデルデータ及び背景データを用いて、人物モデルが背景において被服を身に着けた画像を示す画像データを生成する(ステップS14)。
情報処理装置30の出力部35は、画像生成部34により生成された画像データをユーザ端末10に出力する(ステップS15)。ここで、図9は、画像生成部34により生成された画像データに応じてユーザ端末10に表示される画面を例示したものである。この図の例のように、或る人物モデルが或る背景にて或る被服を身に着けた画面が、被服の色、素材、価格等の被服属性とともに表示される。図示はしていないが、この画面において、被服属性だけに限らず、背景属性や人物モデル属性が表示されていてもよい。
販売者がこの画面を確認し、これらの被服、人物モデル及び背景の組み合わせで確定した旨の操作を行うと、情報処理装置30の取得部31はその旨の通知を取得する。これに応じて、学習部36は、ステップS11にて取得された被服、人物モデル、及び背景の組み合わせに基づいて学習モデルを生成又は更新する(ステップS16)。なお、画像生成部34により生成された、或る人物モデルが或る背景にて或る被服を身に着けた画像データは、被服の販売者が利用し得るようなデータ形式にて情報処理装置30からユーザ端末10等に提供される。販売者はこの画像データを自身のイーコマースサイトに登録するなどして利用する。
一方、取得された画像生成要求において、被服、人物モデル及び背景の一部のみが指定されている場合には(ステップS12;一部)、抽出部33は、前述したように、人物モデル、被服及び背景のうち、画像生成要求において指定された要素を記憶部32の記憶内容から抽出し、画像生成要求において指定されていない要素を、学習部36による学習結果に従って、記憶部32の記憶内容から抽出する(ステップS17)。
そして、画像生成部34は、抽出部33により抽出された被服データ、人物モデルデータ及び背景データを用いて、人物モデルがある背景において被服を身に着けた画像を示す画像データを生成し(ステップS14)、出力部35は、画像生成部34により生成された画像データをユーザ端末10に出力する(ステップS15)。画像生成部34は、ステップS17において抽出された被服、人物モデル及び背景の組み合わせに基づいて学習モデルを生成又は更新する(ステップS16)。
以上説明した実施形態によれば、様々な被服、様々なモデル及び様々な背景を任意に組み合わせて、モデルが背景上で被服を身に着けた画像を簡便に生成することができる。機械学習技術を用いることにより、このような画像を、より多くの売り上げが見込めるような被服、人物モデル及び背景の組み合わせによって生成することが可能となる。また、一般に、このような画像を生成するためには人物モデルを雇ってその人物モデルに被服を着せ、適切な背景を用意して撮影を行うため、コストや所要期間が増大するが、本実施形態によれば、これらのコストや所要期間を小さくすることも可能となる。
[変形例]
本発明は、上述した実施形態に限定されない。上述した実施形態を以下のように変形してもよい。また、以下の2つ以上の変形例を組み合わせて実施してもよい。
本発明は、上述した実施形態に限定されない。上述した実施形態を以下のように変形してもよい。また、以下の2つ以上の変形例を組み合わせて実施してもよい。
[変形例1]
被服、人物モデル及び背景の組み合わせの傾向は、被服の販売者やブランド単位で異なる可能性がある。そこで、被服、人物モデル及び背景の関係を被服の販売者やブランドごとに学習してもよい。具体的には、学習部36は、上述したような過去の画像生成要求に含まれるデータを被服の販売者又は被服のブランドごとに区別して記憶しておき、それぞれのデータを用いて被服の販売者又は被服のブランドごとに学習を行い、各々の被服の販売者又は被服のブランドに固有の学習モデルを生成する。そして、抽出部33は、或るユーザ端末10から画像生成要求が取得された場合に、その画像生成要求がどの販売者又はブランドを指定したものであるかに応じて、対応する学習モデルを選択し、選択した学習モデルに従って記憶部32からのデータの抽出を行う。このように、学習部36が被服の販売者ごと又は被服のブランドごとに学習を行うことで、その販売者やブランドの雰囲気、印象又はイメージに応じて統一感のある複数の画像データを生成することが可能となる。
被服、人物モデル及び背景の組み合わせの傾向は、被服の販売者やブランド単位で異なる可能性がある。そこで、被服、人物モデル及び背景の関係を被服の販売者やブランドごとに学習してもよい。具体的には、学習部36は、上述したような過去の画像生成要求に含まれるデータを被服の販売者又は被服のブランドごとに区別して記憶しておき、それぞれのデータを用いて被服の販売者又は被服のブランドごとに学習を行い、各々の被服の販売者又は被服のブランドに固有の学習モデルを生成する。そして、抽出部33は、或るユーザ端末10から画像生成要求が取得された場合に、その画像生成要求がどの販売者又はブランドを指定したものであるかに応じて、対応する学習モデルを選択し、選択した学習モデルに従って記憶部32からのデータの抽出を行う。このように、学習部36が被服の販売者ごと又は被服のブランドごとに学習を行うことで、その販売者やブランドの雰囲気、印象又はイメージに応じて統一感のある複数の画像データを生成することが可能となる。
[変形例2]
被服を購入する購入者によって、好みに合う被服、人物モデル及び背景の組み合わせが異なる可能性がある。つまり、そこで、被服、人物モデル及び背景の組み合わせによって、各購入者が被服を購入する確率が異なると考えられる。そこで、学習部36は、被服を購入する購入者の属性ごとに、学習を行ってもよい。これにより、例えば20代女性に対して或る被服を見せる場合に、その被服と組み合わせる人物モデル又は背景として適切なものが用いられることになる。
被服を購入する購入者によって、好みに合う被服、人物モデル及び背景の組み合わせが異なる可能性がある。つまり、そこで、被服、人物モデル及び背景の組み合わせによって、各購入者が被服を購入する確率が異なると考えられる。そこで、学習部36は、被服を購入する購入者の属性ごとに、学習を行ってもよい。これにより、例えば20代女性に対して或る被服を見せる場合に、その被服と組み合わせる人物モデル又は背景として適切なものが用いられることになる。
変形例2を実現するため、学習部36は、各購入者に提示された画像データにおける被服、人物モデル及び背景の組み合わせと、その画像データが各購入者に提示されたのちにその画像データに含まれる被服が購入されたか否か(販売者からみれば、被服が販売されたか否か)を含む履歴を記憶している。ここで、図10は、学習部36に記憶されたこれらのデータを例示している。各購入者に対してどの画像データが提示されたのか、各画像データにおいて被服、人物モデル及び背景がどのような組み合わせであったのか、そして、各画像データが各購入者に提示されたのちにその画像データに含まれる被服が購入されたか否かといったことに関するデータは、ユーザ端末10等から情報処理装置30に送信され、学習部36により記憶される。
また、購入者の購入者IDに対応付けてその購入者の購入者属性が記憶される。この購入者属性も例えばユーザ端末10等が有する購入データベース等から情報処理装置30に送信され、学習部36により記憶される。購入者属性は、例えば購入者の性別、年齢、身体のサイズ、趣味、所属する組織等を含む。また、各々の購入者の移動履歴や、各々の購入者の被服の購入履歴や、各々の購入者の趣味嗜好に依拠する雑誌の購入・閲覧履歴は、その購入者の被服、人物モデル及び背景の好みに影響すると予想される。そこで、このような購入者のあらゆる行動履歴に関するデータを購入者属性として用いてもよい。これらのデータに関し、購入履歴等に関するデータは情報処理装置30が図示せぬイーコマースサイトや電子決済サイトのデータベースから取得してもよいし、移動履歴やWebサイトの閲覧履歴等に関するデータは情報処理装置30が購入者の通信端末からネットワーク20経由で取得してもよい。
学習部36は、上述したような過去の画像生成要求に含まれるデータを購入者属性ごとに区別して記憶しておき、それぞれのデータを用いて購入者の属性単位で学習を行い、各々の属性単位に固有の学習モデルを生成する。購入者の属性単位とは、例えば「10代、女性」「20代、女性」…「XX代、女性」といった区分の単位であったり、「20代、女性、趣味がスポーツ」「20代、女性、趣味がアニメ」…「20代、女性、趣味がX」といった区分の単位であったり、「男性、身長160~165センチ」「男性、身長165~170センチ」…「男性、身長X-5~Xセンチ」といった区分の単位であったりなどであるが、どのような単位にするかは任意に決められる。そして、抽出部33は、或るユーザ端末10から画像生成要求が取得された場合に、その画像生成要求がどのような購入者の属性を指定したものであるかに応じて、対応する学習モデルを選択し、選択した学習モデルに従って記憶部32からのデータの抽出を行う。このように、学習部36が購入者の属性ごとに学習を行うことで、その購入者に合った画像データを生成することが可能となる。
また、学習部36は、各被服の購入結果が或る程度の数、蓄積されると、各々の購入者に提示した被服に関する被服データと、その被服をその購入者に提示するときにその被服を身に着けた人物モデルに関する人物モデルデータと、その被服及び人物モデルの背景に関する背景データとを説明変数とし、その購入者がその被服を購入したか否か(つまり被服の販売結果)を目的変数とした教師データに基づいて、例えばニューラルネットワークの教師あり学習を行って学習モデルを生成してもよい。つまり、学習部36は、購入者に提示した被服、人物モデル及び背景とその被服の購入の有無との関係性を解析する。この解析により、多数ある被服のそれぞれをどのような人物モデルがどのような背景で身に着けて購入者に提示すれば最も売り上げが見込めるかということを把握できるようになる。
抽出部33は、画像生成要求において或る被服が指定された場合、その被服に関する被服データと、記憶部32に記憶されている、全ての人物モデル及び背景データのそれぞれを説明変数としてこれらの組を逐一、上記学習モデルに入力し、その学習モデルから出力される目的変数に相当するデータ(つまり、購入者が上記の或る被服を購入する確率に関するデータ)を逐一算出する。そして、抽出部33は、算出した上記データに基づいて、上記の或る被服に対して組み合わせて購入者に提示するべき人物モデル及び背景の組み合わせを決定する。例えば抽出部33は、購入者が上記の或る被服を購入する確率が最も高い人物モデル及び背景の組み合わせを決定し、決定した被服、人物モデル及び背景に対応するデータを記憶部32から抽出する。画像生成部34は、抽出された被服、人物モデル及び背景のデータを組み合わせて、その人物モデルがその背景にてその被服を身に着けた画像データを生成する。これにより、購入者によって購入される確率が高くなるような被服、人物モデル及び背景を組み合わせた画像を生成することが可能となる。なお、学習部36は、このような被服の販売結果を加味した学習を、上述したようなユーザ属性単位で行ってもよい。
[変形例3]
従来において、様々な被服のメーカや小売店等の販売者は、人物モデルが被服を身に着けた様子をカメラで撮像した撮像画像を用いて、イーコマースや実在店舗にて販促活動を行っていた。そこで、学習部36は、このように従来から存在する撮像画像に基づいて学習を行ってもよい。この学習において、学習部36は、画像認識技術を用いて上記の撮像画像から被服、人物モデル及び背景に相当する画像を抽出し、画像比較乃至画像検索に関する技術を用いて、これらの被服、人物モデル及び背景に相当する各画像が記憶部32に記憶されている被服、人物モデル及び背景のどれに該当するか又は類似するかを判定し、その判定結果に基づいて、上記実施形態で説明したような学習を行う。このように、人物モデルが被服を身に着けた様子を撮像した撮像データに基づいて学習を行うことで、過去の販促活動において利用した撮像データと同様に、或る程度の売り上げが期待できるような画像データを簡便に生成することが可能となる。
従来において、様々な被服のメーカや小売店等の販売者は、人物モデルが被服を身に着けた様子をカメラで撮像した撮像画像を用いて、イーコマースや実在店舗にて販促活動を行っていた。そこで、学習部36は、このように従来から存在する撮像画像に基づいて学習を行ってもよい。この学習において、学習部36は、画像認識技術を用いて上記の撮像画像から被服、人物モデル及び背景に相当する画像を抽出し、画像比較乃至画像検索に関する技術を用いて、これらの被服、人物モデル及び背景に相当する各画像が記憶部32に記憶されている被服、人物モデル及び背景のどれに該当するか又は類似するかを判定し、その判定結果に基づいて、上記実施形態で説明したような学習を行う。このように、人物モデルが被服を身に着けた様子を撮像した撮像データに基づいて学習を行うことで、過去の販促活動において利用した撮像データと同様に、或る程度の売り上げが期待できるような画像データを簡便に生成することが可能となる。
[その他の変形例]
なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信制御部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。
例えば、本開示の一実施の形態における情報処理装置などは、本開示の処理を行うコンピュータとして機能してもよい。
本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、NR(new Radio)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE-Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。
本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
本開示において使用する「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
上記の各装置の構成における「部」を、「手段」、「回路」、「デバイス」等に置き換えてもよい。
本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
本開示において、例えば、英語でのa,an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
1:情報処理システム、10:ユーザ端末、20:ネットワーク、30:情報処理装置、31:取得部、32:記憶部、33:抽出部、34:画像生成部、35:出力部、36:学習部、1001:プロセッサ、1002:メモリ、1003:ストレージ、1004:通信装置、1005:入力装置、1006:出力装置、3001:プロセッサ、3002:メモリ、3003:ストレージ、3004:通信装置。
Claims (10)
- 複数の異なる被服を示す被服データと、複数の異なる人物モデルを示す人物モデルデータと、複数の異なる背景を示す背景データとを記憶する記憶部と、
画像生成要求を取得する取得部と、
取得された前記画像生成要求において、被服、人物モデル、及び背景が指定されている場合に、指定された被服に対応する被服データと、指定された人物モデルに対応する人物モデルデータと、指定された背景に対応する背景データとを前記記憶部の記憶内容から抽出する抽出部と、
抽出された前記被服データ、前記人物モデルデータ及び前記背景データを用いて、前記人物モデルが前記背景にて前記被服を身に着けた画像を示す画像データを生成する画像生成部と、
生成された前記画像データを出力する出力部と
を備えることを特徴とする情報処理装置。 - 各々の被服、当該被服を身に着けた各々の人物モデル、又は、当該の人物モデルに対する各々の背景の関係を学習する学習部を備え、
前記抽出部は、前記被服データ、前記人物モデルデータ及び前記背景データのうち、前記画像生成要求において指定されたデータを前記記憶部の記憶内容から抽出し、前記画像生成要求において指定されていないデータを、前記学習部による学習結果に従って前記記憶部の記憶内容から抽出する
ことを特徴とする請求項1記載の情報処理装置。 - 前記学習部は、少なくとも、各々の被服と当該被服を身に着けた各々の人物モデルとの関係を学習する
ことを特徴とする請求項2記載の情報処理装置。 - 前記学習部は、少なくとも、各々の被服と当該被服を身に着けた人物モデルに対する各々の背景との関係を学習する
ことを特徴とする請求項2記載の情報処理装置。 - 前記学習部は、少なくとも、各々の人物モデルと当該人物モデルに対する各々の背景との関係を学習する
ことを特徴とする請求項2記載の情報処理装置。 - 前記学習部は、過去の前記画像生成要求における指定に基づいて前記学習を行う
ことを特徴とする請求項2~5のいずれか1項に記載の情報処理装置。 - 前記学習部は、過去の前記画像生成要求における指定に応じて生成された画像データを用いた被服の販売結果に基づいて前記学習を行う
ことを特徴とする請求項2~5のいずれか1項に記載の情報処理装置。 - 前記学習部は、人物モデルが背景にて被服を身に着けた様子を撮像した撮像データに基づいて前記学習を行う
ことを特徴とする請求項2~5のいずれか1項に記載の情報処理装置。 - 前記学習部は、前記被服の販売者ごと、又は、前記被服のブランドごとに、前記学習を行う
ことを特徴とする請求項2~8のいずれか1項に記載の情報処理装置。 - 前記学習部は、前記被服を購入する購入者の属性ごとに、前記学習を行う
ことを特徴とする請求項2~9のいずれか1項に記載の情報処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021105944A JP2023004331A (ja) | 2021-06-25 | 2021-06-25 | 情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021105944A JP2023004331A (ja) | 2021-06-25 | 2021-06-25 | 情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023004331A true JP2023004331A (ja) | 2023-01-17 |
Family
ID=85100780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021105944A Pending JP2023004331A (ja) | 2021-06-25 | 2021-06-25 | 情報処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023004331A (ja) |
-
2021
- 2021-06-25 JP JP2021105944A patent/JP2023004331A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10019779B2 (en) | Browsing interface for item counterparts having different scales and lengths | |
JP6345872B2 (ja) | 商品推奨装置、商品推奨方法及びプログラム | |
US20160093081A1 (en) | Image display method performed by device including switchable mirror and the device | |
US20130085893A1 (en) | Acquisition and use of query images with image feature data | |
KR102318952B1 (ko) | 인공지능을 활용한 의류 추천 및 구매 방법, 장치 및 시스템 | |
JP2018084890A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN105912667A (zh) | 一种信息推荐方法、装置及移动终端 | |
KR102102571B1 (ko) | 온라인 쇼핑 플랫폼을 제공하는 시스템 및 방법 | |
JP6120467B1 (ja) | サーバ装置、端末装置、情報処理方法、およびプログラム | |
US10026176B2 (en) | Browsing interface for item counterparts having different scales and lengths | |
CN111681070A (zh) | 线上商品的购买方法、购买装置、存储装置及购买设备 | |
KR101635710B1 (ko) | 온라인 상품 추천 방법 및 장치 | |
US20160343054A1 (en) | Image acquisition and feature extraction apparatus, method of feature extraction and feature identification, and method for creating and providing advertisement content | |
CN108781262A (zh) | 用于合成图像的方法和使用该方法的电子装置 | |
JP2018128955A (ja) | スクリーンショット画像解析装置、スクリーンショット画像解析方法、およびプログラム | |
JPWO2017043244A1 (ja) | 検索装置、検索システム及び検索方法 | |
US20200265233A1 (en) | Method for recognizing object and electronic device supporting the same | |
KR20220015177A (ko) | 코디 조합 생성 시스템 및 코디 조합 생성 방법 | |
KR20220169663A (ko) | 인공지능 기반 패션 코디 추천 서비스 플랫폼의 운영 시스템 및 방법 | |
JP2017228278A (ja) | サーバ装置、端末装置、情報処理方法、およびプログラム | |
JP2023004331A (ja) | 情報処理装置 | |
KR20160024427A (ko) | 사용자의 관심 영역을 추출하는 전자 장치 및 관심 영역 추출 방법 | |
WO2020059263A1 (ja) | 画像提案装置、画像提案方法及び画像提案プログラム | |
US11645837B1 (en) | System for constructing virtual closet and creating coordinated combination, and method therefor | |
US20160034543A1 (en) | Generating item listings according to mapped sensor data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240201 |