JP2019124987A - 情報処理システム、プログラム、情報処理装置及び情報出力方法 - Google Patents

情報処理システム、プログラム、情報処理装置及び情報出力方法 Download PDF

Info

Publication number
JP2019124987A
JP2019124987A JP2018003093A JP2018003093A JP2019124987A JP 2019124987 A JP2019124987 A JP 2019124987A JP 2018003093 A JP2018003093 A JP 2018003093A JP 2018003093 A JP2018003093 A JP 2018003093A JP 2019124987 A JP2019124987 A JP 2019124987A
Authority
JP
Japan
Prior art keywords
appearance attribute
analysis
appearance
attribute
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018003093A
Other languages
English (en)
Other versions
JP7062960B2 (ja
Inventor
朋之 田附
Tomoyuki Tatsuki
朋之 田附
宗之 濱部
Muneyuki Hamabe
宗之 濱部
明宏 柿沼
Akihiro Kakinuma
明宏 柿沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018003093A priority Critical patent/JP7062960B2/ja
Priority to US16/238,845 priority patent/US11093974B2/en
Publication of JP2019124987A publication Critical patent/JP2019124987A/ja
Application granted granted Critical
Publication of JP7062960B2 publication Critical patent/JP7062960B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • G06V30/244Division of the character sequences into groups prior to recognition; Selection of dictionaries using graphical properties, e.g. alphabet type or font
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Abstract

【課題】撮影画像の人物の価値観を解析できる情報処理システムを提供すること。【解決手段】一台以上の情報処理装置を含む構成の情報処理システムであって、同一の価値観を持つ人物の画像としてユーザにより選択された複数枚の撮影画像から機械学習の手法を用いて構築された見た目属性の特徴量パターンを一種類以上記憶する特徴量パターン記憶手段と、特徴量パターン記憶手段に記憶されている一種類以上の特徴量パターンを用いて、解析用データとして入力された画像に写る人物の見た目属性を解析する見た目属性解析手段と、見た目属性解析手段による解析結果に応じた出力を行う解析結果出力手段と、を有することにより上記課題を解決する。【選択図】 図3

Description

本発明は、情報処理システム、プログラム、情報処理装置及び情報出力方法に関する。
従来の画像処理装置には、カメラから人物の撮影画像を服装画像として取得し、取得した複数の服装画像を参照してその人物の服装の傾向を推定し、その人物の服装の傾向に基づき、公開している各種の商品の中から、ユーザの好みに合った衣服の情報をレコメンド情報として選択して出力するものがあった(例えば特許文献1参照)。
しかしながら、特許文献1に記載されている画像処理装置は、着用回数が多い場合にはその服装、同系色の服装が多い場合にはその色の服装、特定種類の服装が多い場合にはその種類の服装をユーザの好みの傾向として推定しており、推定できるユーザの好みの傾向が単純なものに限られるという問題があった。
例えば消費者の購買行動は消費者購買行動モデル(AIDMA)等で表される。消費者購買行動モデル(AIDMA)は、消費者の購買行動を、製品の存在を知るAttentionと、興味を持つInterestと、欲しいと思うDesireと、動機を求めるMotiveと、購買行動に至るActionとで表す。AttentionからInterestへは、消費者の価値観へのアプローチ(ターゲティング)が重要である。しかしながら、特許文献1で推定できるユーザの好みの傾向は消費者の価値観を解析できるものでなく、消費者の価値観への有効なアプローチができないという問題があった。
本発明の実施の形態は、撮影画像の人物の価値観を解析できる情報処理システムを提供することを目的とする。
上記した課題を達成するために本願請求項1は、一台以上の情報処理装置を含む構成の情報処理システムであって、同一の価値観を持つ人物の画像としてユーザにより選択された複数枚の撮影画像から機械学習の手法を用いて構築された見た目属性の特徴量パターンを一種類以上記憶する特徴量パターン記憶手段と、前記特徴量パターン記憶手段に記憶されている一種類以上の前記特徴量パターンを用いて、解析用データとして入力された画像に写る人物の前記見た目属性を解析する見た目属性解析手段と、前記見た目属性解析手段による解析結果に応じた出力を行う解析結果出力手段と、を有することを特徴とする。
本発明の実施の形態によれば、撮影画像の人物の価値観を解析できる。
本実施形態に係る情報処理システムの一例の構成図である。 コンピュータの一例のハードウェア構成図である。 本実施形態に係る情報処理システムの一例の機能構成図である。 本実施形態に係る情報処理システムが行う見た目属性に関する処理の一例のフローチャートである。 見た目属性学習処理の一例のフローチャートである。 教師データを複製する処理の一例のフローチャートである。 加工を利用して画像枚数を増やす一般事例を示す図である。 加工を利用して画像枚数を増やす本実施形態に係る事例を示す図である。 見た目属性解析処理及び解析結果出力処理の一例のフローチャートである。 見た目属性解析処理の一例のイメージ図である。 解析結果出力処理(適合型)の一例のイメージ図である。 解析結果出力処理(相関型)の一例のイメージ図である。 解析結果出力処理(価値指標型)の一例のイメージ図である。 第1の活用事例を示すシステム構成の一例のイメージ図である。 第1の活用事例を示す一例のフローチャートである。 第1の活用事例を示す一例の解析結果出力のイメージ図である。 第2の活用事例を示すシステム構成の一例のイメージ図である。 第2の活用事例を示す一例のフローチャートである。 実タイプマッチ用データ設定処理の一例のフローチャートである。 実タイプマッチ用データ設定処理の一例のイメージ図である。 実タイプマッチ用データの一例の構成図である。 第2の活用事例における解析結果出力の一例のイメージ図である。 第3の活用事例を示すシステム構成の一例のイメージ図である。 第3の活用事例を示す一例のフローチャートである。 広告定義データの一例の構成図である。 第4の活用事例を示すシステム構成の一例のイメージ図である。 第4の活用事例を示す一例のフローチャートである。 第5の活用事例を示すシステム構成の一例のイメージ図である。 第5の活用事例を示す一例のフローチャートである。 第6の活用事例を示すシステム構成の一例のイメージ図である。 第6の活用事例を示す一例のフローチャートである。 第7の活用事例を示すシステム構成の一例のイメージ図である。 第7の活用事例を示す一例のフローチャートである。 第8の活用事例を示すシステム構成の一例のイメージ図である。 第8の活用事例を示す一例のフローチャートである。 第9の活用事例を示すシステム構成の一例のイメージ図である。 第9の活用事例を示す一例のフローチャートである。 第10の活用事例を示すシステム構成の一例のイメージ図である。 第10の活用事例を示す一例のフローチャートである。
以下、本発明の実施形態について図面を参照しながら説明する。
[第1の実施形態]
<概要>
前述したように、消費者購買行動モデルにおけるAttentionからInterestへは、消費者の価値観へのアプローチ(ターゲティング)が重要であるが、現状、消費者の年齢、性別、職業、住居などのペルソナ分析により消費者の価値観へアプローチする手法が一般的だった。
本発明の実施形態では「見た目属性」という概念を取り入れ、その見た目属性により消費者の価値観へアプローチする手法を用いる。見た目属性とは、消費者の価値観を直接モデリングし、分析することで、価値観を可視化する手法である。
例えば「派手系な洋服がすき」という価値観の見た目属性を「渋谷系」と指定し、その見た目属性「渋谷系」として分類したい人物の画像を複数点用意し、機械学習やディープラーニング(深層学習)の手法(以下、機械学習と総称する)を用いて見た目属性「渋谷系」の特徴量パターンを構築する。同様の手法を用いて例えば「落ち着いたかっちりした洋服がすき」という価値観の見た目属性「銀座系」などの特徴量パターンを複数構築する。そして、構築した複数の特徴量パターンを用いることで、価値観を分析したい人物の画像の見た目属性を分析し、分析した見た目属性から、その画像の人物の価値観を可視化(抽出)できる。
また、例えば女性誌Aのファッションとして分類される人物画像(全身)を女性誌Aから複数点用意し、機械学習の手法を用いて学習することで、見た目属性「女性誌A」の特徴量パターンを構築する。同様に、見た目属性「女性誌B」の特徴量パターンと見た目属性「女性誌C」の特徴量パターンを構築する。
そして、例えば店舗に入ってきた人物の画像の見た目属性を、構築した見た目属性「女性誌A」「女性誌B」「女性誌C」を用いて分析し、店舗に入ってきた人物の価値観を可視化できる。このように、本実施形態では自己の価値観が現れるファッションという見た目を見た目属性により分類し、人物の価値観を可視化する。
<システム構成>
図1は、本実施形態に係る情報処理システムの一例の構成図である。図1(A)の情報処理システム1Aはサーバ装置10、クライアント端末12、画像ファイル記憶装置14及びカメラ16がインターネットやLANなどのネットワーク18を介してデータ通信可能に接続されている。図1(B)の情報処理システム1Bは画像ファイル記憶装置14、カメラ16及び情報処理装置20がネットワーク18を介してデータ通信可能に接続されている。
情報処理システム1Aではユーザがクライアント端末12を操作し、サーバ装置10に後述の見た目属性学習処理、見た目属性解析処理、解析結果出力処理を行わせる。サーバ装置10は画像ファイル記憶装置14に記憶されている教師データを用いて見た目属性の特徴量パターンを構築する。また、サーバ装置10は画像ファイル記憶装置14に記憶されている解析用データ又はカメラ16により撮像された解析用データの見た目属性を解析し、解析結果をクライアント端末12などに出力させる。
情報処理システム1Bではユーザが情報処理装置20を操作し、情報処理装置20に後述の見た目属性学習処理、見た目属性解析処理、解析結果出力処理を行わせる。情報処理装置20は画像ファイル記憶装置14に記憶されている教師データを用いて見た目属性の特徴量パターンを構築する。また、情報処理装置20は画像ファイル記憶装置14に記憶されている解析用データ又はカメラ16により撮像された解析用データの見た目属性を解析し、解析結果を出力する。
サーバ装置10はPCなどのコンピュータにより実現される。クライアント端末12はスマートデバイス、タブレット端末、携帯電話、PCなどにより実現される。画像ファイル記憶装置14は、例えばファイルサーバやネットワークハードディスクなどにより実現される。カメラ16は撮像した画像データをネットワーク18経由で送信できる常設監視カメラ、ネットワークカメラ、一眼レフカメラなどにより実現される。
なお、クライアント端末12にカメラ機能が搭載されており、そのカメラ機能を利用する場合はカメラ16が無くてもよい。また、サーバ装置10又はクライアント端末12の記憶装置を画像ファイル記憶装置14の替わりに利用する場合は画像ファイル記憶装置14が無くてもよい。また、情報処理装置20はスマートデバイス、タブレット端末、携帯電話、PCなどにより実現される。さらに、クライアント端末12及び情報処理装置20は学習環境用と解析環境用とを別々に設けてもよい。
なお、図1に示す情報処理システム1A及び1Bの構成は一例である。例えばサーバ装置10又は情報処理装置20の機能の少なくとも一部はサーバ装置10又は情報処理装置20以外に備えてもよい。また、クライアント端末12の機能の少なくとも一部はクライアント端末12以外に備えてもよい。
<ハードウェア構成>
《コンピュータ》
図1のサーバ装置10、クライアント端末12及び情報処理装置20は例えば図2に示すようなハードウェア構成のコンピュータにより実現される。図2は、コンピュータの一例のハードウェア構成図である。
図2に示したコンピュータ500は、入力装置501、表示装置502、外部I/F503、RAM504、ROM505、CPU506、通信I/F507及びHDD508などを備え、それぞれがバスBで相互に接続されている。なお、入力装置501及び表示装置502は必要なときに接続して利用する形態であってもよい。
入力装置501はキーボードやマウス、タッチパネルなどを含み、ユーザが各操作信号を入力するのに用いられる。表示装置502はディスプレイ等を含み、コンピュータ500による処理結果を表示する。
通信I/F507はコンピュータ500を各種ネットワークに接続するインタフェースである。これにより、コンピュータ500は通信I/F507を介してデータ通信を行うことができる。
また、HDD508は、プログラムやデータを格納している不揮発性の記憶装置の一例である。格納されるプログラムやデータには、コンピュータ500全体を制御する基本ソフトウェアであるOS、及びOS上において各種機能を提供するアプリケーションなどがある。なお、コンピュータ500はHDD508に替え、記憶媒体としてフラッシュメモリを用いるドライブ装置(例えばソリッドステートドライブ:SSD)を利用するものであってもよい。
外部I/F503は、外部装置とのインタフェースである。外部装置には、記録媒体503aなどがある。これにより、コンピュータ500は外部I/F503を介して記録媒体503aの読み取り及び/又は書き込みを行うことができる。記録媒体503aにはフレキシブルディスク、CD、DVD、SDメモリカード、USBメモリ、SIMカードなどがある。
ROM505は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)の一例である。ROM505にはコンピュータ500の起動時に実行されるBIOS、OS設定、及びネットワーク設定などのプログラムやデータが格納されている。RAM504はプログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)の一例である。
CPU506は、ROM505やHDD508などの記憶装置からプログラムやデータをRAM504上に読み出し、処理を実行することで、コンピュータ500全体の制御や機能を実現する演算装置である。CPU506は1つのプロセッサ又は複数のプロセッサで実現されていてもよい。
サーバ装置10、クライアント端末12及び情報処理装置20は、例えば図2に示すコンピュータ500のハードウェア構成により、後述するような各種処理を実現できる。
<ソフトウェア構成>
本実施形態に係る情報処理システム1A又は1Bは例えば図3に示す機能構成により実現される。図3は本実施形態に係る情報処理システムの一例の機能構成図である。図3の機能構成は、本実施形態の説明に不要な構成について適宜省略している。以下では情報処理システム1Aを例として説明する。
図3のサーバ装置10は見た目属性学習部31、学習データ記憶部32、見た目属性解析部33、解析結果データ記憶部34、解析結果出力処理部35、複製処理部36を有する構成である。見た目属性学習部31は後述の見た目属性学習処理を行い、機械学習の手法を用いて教師データから複数の特徴量パターンを構築する。見た目属性学習部31は構築した特徴量パターンを学習データ記憶部32に記憶させる。
例えば見た目属性学習部31は見た目属性「A」として分類したい人物が写っている画像ファイルを複数枚、入力されることで、機械学習の手法を用いて見た目属性「A」の特徴量パターンを構築できる。
見た目属性解析部33は後述の見た目属性解析処理を行い、学習データ記憶部32に記憶されている特徴量パターンを用いて、解析用データとして入力された画像ファイルの人物の見た目属性を解析する。見た目属性解析部33は解析結果データを解析結果データ記憶部34に記憶させる。
解析結果出力処理部35は後述の解析結果出力処理を行い、解析結果データ記憶部34に記憶されている解析結果データを用いて、解析用データとして入力された画像ファイルの人物の見た目属性や、その見た目属性に応じた価値観などの情報を、解析結果として出力する。複製処理部36は教師データを後述のように複製することで、教師データを増やす(水増しする)。
<処理>
本実施形態に係る情報処理システム1A及び1Bは、例えば図4に示す手順で見た目属性に関する処理を行う。図4は本実施形態に係る情報処理システムが行う見た目属性に関する処理の一例のフローチャートである。
ステップS11において、見た目属性学習部31は入力された教師データから複数の見た目属性の特徴量パターンを構築し、学習データ記憶部32に記憶させる。ステップS11の見た目属性学習処理の詳細は後述する。
ステップS12において、見た目属性解析部33は学習データ記憶部32に記憶されている特徴量パターンを用いて、解析用データとして入力された画像ファイルの人物の見た目属性を解析し、解析結果データを解析結果データ記憶部34に記憶させる。なお、ステップS12の見た目属性解析処理の詳細は後述する。
ステップS13において、解析結果出力処理部35は解析結果データ記憶部34に記憶されている解析結果データを用いて、解析用データとして入力された画像ファイルの人物の見た目属性などの情報を、解析結果として出力する。なお、ステップS13の解析結果出力処理の詳細は後述する。
図5は見た目属性学習処理の一例のフローチャートである。ステップS21において見た目属性学習部31は属性設定(学習条件)により、機械学習に必要なパラメータ設定を受け付ける。ステップS22に進み、見た目属性学習部31は、ユーザが一の見た目属性として分類した人物の画像を教師データとして読み込む。ステップS23に進み、見た目属性学習部31は機械学習により教師データの特徴を把握し、特徴量パターンを構築して学習データ記憶部32に記憶させる。
ステップS24に進み、見た目属性学習部31はステップS23の機械学習を行っていない見た目属性の教師データが残っていればステップS22に戻り、処理を続ける。ステップS23の機械学習を行っていない見た目属性の教師データが残っていなければ見た目属性学習部31は図5のフローチャートの処理を終了する。
なお、画像認識のための機械学習では精度を担保する(過学習を防ぐ)ために、教師データセットとして十分な画像枚数を用意する必要がある。十分な画像枚数を用意できない場合、タグ付けされた画像群(ユーザが一の見た目属性として分類した人物の画像群)を加工することで画像枚数を増やす(水増しする)図6の方法を利用するようにしてもよい。ここで言う加工とは、コントラスト調整、ガンマ変換、平滑化、ノイズ付加、反転、拡大・縮小等である。
コントラスト調整では、画像のコントラスト(明暗差)を強調/低減させることで画像のメリハリや色彩の強弱を変換する。ガンマ変換では、画像の主階調(ガンマ)を変えて輝度値を変化させる。平滑化では、平均化フィルタ等を使って画像を滑らかにする。ノイズ付加では、ガウス分布に基づく生成値を足してノイズを付加、又は、インパルスノイズを付加する。反転では、画像を左右又は上下に反転させる。拡大・縮小では、画像の一部を拡大・縮小する。
図7は加工を利用して画像枚数を増やす一般事例を示す図である。図7では300枚の画像枚数が最終的に19200枚まで増えている。一般的に図7に示す加工を利用した画像枚数の増加方法はルール化され、タグ付けされたあらゆる画像群に対して同じ増加方法が取られる。本実施形態では、タグ(見た目属性)の種類によって画像枚数の増やし方を次のように変えている。
図8は加工を利用して画像枚数を増やす本実施形態に係る事例を示す図である。図8ではタグ(見た目属性)の種類によって、利用する加工法を変えている。なお、図8の加工法及び加工順は一例である。例えば服装の特徴が「地味な服装」の画像がメインとなる画像群に対し、コントラスト強調やガンマ強調(硬調化)を行うと色彩が強調されてしまうため、地味な服装の機械学習の教師データに相応しくない画像が生成される。
また、服装の特徴が「無地の服装」の画像がメインとなる画像群に対し、ノイズ付加を行うと、付加されたノイズが服装の柄(模様)のように見えるため、無地の服装の機械学習の教師データに相応しくない画像が生成される。さらに、服装の特徴が「セーターやスウェード素材の服装」の画像がメインとなる画像群に対し、平滑化処理を行うと、素材の立体感が失われ、セーターやスウェード素材の服装の機械学習の教師データに相応しくない画像が生成される。
そこで、本実施形態では図6のフローチャートに示すように、見た目属性の種類により教師データの増やし方を変えることで、より高精度な機械学習を行うことのできる教師データセットを十分に生成できる。
図6は教師データを複製する処理の一例のフローチャートである。図6に示す教師データを複製する処理を行う複製処理部36は情報処理システム1Aの場合、クライアント端末12に設けてもよい。ステップS31において複製処理部36は、属性設定(学習条件)により、図8に示す見た目属性の種類ごとの加工条件(コントラスト調整、ガンマ変換、平滑化、ノイズ付加、反転、拡大・縮小などの複製処理)の設定を受け付ける。
ステップS32に進み、複製処理部36は、ユーザが一の見た目属性として分類した人物の画像を教師データとして読み込む。ステップS33に進み、複製処理部36は読み込んだ見た目属性とマッチする加工条件があれば、ステップS34に進み、その加工条件に基づき、複製加工処理を行い、複製データを教師データに追加する。
複製処理部36は読み込んだ見た目属性とマッチする加工条件がなければ、複製処理部36はステップS34の処理をスキップする。ステップS33〜S35の処理は加工条件が無くなるまで繰り返される。
図9は見た目属性解析処理及び解析結果出力処理の一例のフローチャートである。図9のフローチャートはクライアント端末12で行う処理も含んでいる。ステップS41においてクライアント端末12は属性設定(撮影条件)により、撮影に必要なパラメータ設定を受け付ける。ステップS42に進み、クライアント端末12は解析用データとして画像ファイル記憶装置14又はカメラ16から画像ファイルを読み込む。
ステップS43に進み、クライアント端末12は読み込んだ画像ファイルから見た目属性の解析に必要な領域の抽出及び解像度変更などのデータ加工を実施する。ステップS44において、クライアント端末12はステップS43でデータ加工を実施した画像ファイルを解析用データとしてサーバ装置10の見た目属性解析部33にアップロードする。
ステップS45に進み、見た目属性解析部33は学習データ記憶部32に記憶されている特徴量パターンを用いて、解析用データとして入力された画像ファイルの人物の各種見た目属性への適合を解析する。ステップS46に進み、解析結果出力処理部35は解析結果を各種デバイスに送信し、解析結果を各種デバイスに表示させたり、解析結果を各種デバイスに保存させたりする。ステップS42〜S47は継続処理の終了がユーザにより指示されるまで繰り返される。
図10は見た目属性解析処理の一例のイメージ図である。図10の例では見た目属性としてガーリー系、お姉ギャル系、フェミニン系、きれい系、ストリート系、キャリア系、お嬢さんOL系、ミセス系を一例として示している。見た目属性解析部33は図10の左側に表示した解析用データを読み込み、特徴量パターンを使用して図10の各種見た目属性への適合を解析する。図10では解析用データの人物の見た目属性が「ガーリー系」と解析された例を示している。
ステップS13の解析結果出力処理では例えば適合型、相関型又は価値指標型の解析結果を出力する。図11は解析結果出力処理(適合型)の一例のイメージ図である。適合型の解析結果出力処理は例えばスマートフォンのアプリケーションに搭載し、ユーザが自分のファッションチェックを実施する場合に利用される。解析結果出力処理部35は見た目属性解析部33がユーザのキャプチャデータから解析した各種見た目属性の適合度を解析結果として出力する。図11の例では見た目属性「A」の適合度が最も高くなっている。
また、適合型の解析結果出力処理はアパレルや飲食などの店舗系の分析ツールとしての活用もできる。解析結果出力処理部35は見た目属性解析部33が特定エリアを撮影するカメラ16の画像ファイルから解析した、特定エリアを訪れた人物の見た目属性を解析して出現率や人数を解析結果として出力する。アパレルや飲食などの店舗系は解析結果を内装や陳列に活かすことができる。
図12は解析結果出力処理(相関型)の一例のイメージ図である。相関型の解析結果出力処理は例えばアパレルなどの店舗で活用できる。相関型の解析結果出力処理では見た目属性ごとの価値観を定義しておくことで、各種見た目属性の相関値を算出し、相関マップを作成しておく。図12の相関マップは見た目属性Aと、見た目属性C,G及びHとが相関値が近く、見た目属性Aと解析された人物に、見た目属性C,G及びH向けの商品を勧める価値があることを示している。
相関型の解析結果出力処理では、解析した見た目属性向けの商品だけでなく、その見た目属性と価値観が近似している見た目属性向けの商品(ファッションやアクセサリー)も顧客に提案できる。なお、見た目属性ごとの価値観の定義は、特定エリア(渋谷、原宿又は代官山など)を撮影するカメラ16の画像ファイルから見た目属性学習部31を利用することで特定エリア系(渋谷系、原宿系又は代官山系など)の価値観設定を行うようにしてもよい。
図13は解析結果出力処理(価値指標型)の一例のイメージ図である。価値指標型の解析結果出力処理は、例えばスマートフォンのアプリケーションに搭載し、ユーザが自分のファッションチェックを実施する場合に利用される。価値指標型の解析結果出力処理では価値観指標を開発し、その価値観指標により見た目属性ごとの価値観を予め定義しておくことで、見た目属性解析部33がユーザのキャプチャデータから解析した見た目属性の各種価値観指標の尺度を解析結果として出力する。
<活用事例>
以下、本実施形態に係る見た目属性の活用事例について説明する。
《活用事例1》
活用事例1は見た目属性を判断するものである。活用事例1は事前準備事項として見た目属性に関する学習の実施が必要である。例えば年齢性別(男性:20代、30代、40代、その他、女性:20代、30代、40代、その他)や系統別属性(男性:キレカジ、カジュアル、スポーティ、ストリート、きれいめ、アメカジ、ビジネス、女性:ハイファッション、ミセス、キャリア、お嬢さんOL、きれい、ベーシック、フェミニン、ガーリッシュ、お姉ギャル、フェミカジ、裏原、ストリート)の見た目属性の学習を見た目属性学習部31に行わせる。そして、活用事例1の処理概要はカメラ16で撮影した画像ファイルの人物の見た目属性を見た目属性解析部33に解析させて、各種見た目属性との適合度合いを出力する。
図14は第1の活用事例を示すシステム構成の一例のイメージ図である。図14に示したシステム構成ではクライアント端末12からアップロードされた画像データの人物の見た目属性をサーバ装置10が解析し、その解析結果として各種見た目属性との適合度合いをクライアント端末12に表示させる。
図15は第1の活用事例を示す一例のフローチャートである。ステップS51においてクライアント端末12は属性設定(撮影条件)により、撮影に必要なパラメータ設定を受け付ける。ステップS52に進み、クライアント端末12は見た目属性の解析を行いたい人物が写っている画像データを読み込み、サーバ装置10にアップロードする。
ステップS53に進み、見た目属性解析部33は学習データ記憶部32に記憶されている特徴量パターンを用いて、クライアント端末12からアップロードされた画像データの人物の見た目属性を解析させる。ステップS54に進み、解析結果出力処理部35は各種見た目属性との適合度合いを解析結果としてクライアント端末12に送信し、例えば図16のような解析結果出力をクライアント端末12に表示させる。図16は第1の活用事例を示す一例の解析結果出力のイメージ図である。図16の解析結果出力の画面は各種見た目属性との適合度合いを表示している。
《活用事例2》
活用事例2は、カメラ16で撮影する画像ファイルの領域に予め設定しておく見た目属性(実タイプ)と、その領域に写った人物の画像ファイルから解析された見た目属性とを比較するものである。活用事例2は事前準備事項として、活用事例1の事前準備事項に加えて後述する実タイプマッチ用データの設定が必要である。活用事例2の処理概要はクライアント端末12から実タイプマッチ用データの設定を行わせ、カメラ16で撮影した画像データの設定領域に写った人物の見た目属性をサーバ装置10が解析し、その解析結果と実タイプとを比較した結果をクライアント端末12に表示させる。
図17は第2の活用事例を示すシステム構成の一例のイメージ図である。図17に示したシステム構成ではカメラ16からアップロードされた画像データの設定領域に写った人物の見た目属性をサーバ装置10が解析し、その解析結果と実タイプマッチ用データとを比較して、その比較結果をクライアント端末12に表示させる。なお、実タイプマッチ用データは例えばクライアント端末12からサーバ装置10に設定される。
図18は第2の活用事例を示す一例のフローチャートである。ステップS61においてカメラ16は属性設定(撮影条件)により、撮影に必要なパラメータ設定をユーザから受け付ける。ステップS62に進み、カメラ16は実タイプマッチ用データに設定された設定領域が写っている画像データをサーバ装置10にアップロードする。
ステップS63に進み、見た目属性解析部33は学習データ記憶部32に記憶されている特徴量パターンを用いて、カメラ16からアップロードされた画像データの設定領域に写る人物の見た目属性を解析する。ステップS64に進み、解析結果出力処理部35は見た目属性解析部33が解析した見た目属性と、実タイプマッチ用データに設定されている設定領域と対応付けられた実タイプとを比較し、例えば図22の解析結果出力をクライアント端末12に表示させる。図22は第2の活用事例を示す一例の解析結果出力のイメージ図である。図22の解析結果出力の画面は、解析した見た目属性と実タイプとの適合率の推移(折れ線グラフ)や適合した人の数(棒グラフ)のレポートを表示している。
図19は実タイプマッチ用データ設定処理の一例のフローチャートである。ステップS71においてクライアント端末12はカメラ16から画像データを読み込む。ステップS72に進み、クライアント端末12は例えば図20に示すように実タイプマッチ用データの領域設定を受け付ける。また、ステップS73に進み、クライアント端末12は例えば図20に示すように実タイプマッチ用データの実タイプ設定を受け付ける。
図20は実タイプマッチ用データ設定処理の一例のイメージ図である。図20はカメラ16から読み込んだ画像データがクライアント端末12に表示された様子を表す。図20では実タイプマッチ用データの設定領域として棚前A、棚前B、鏡前が設定され、棚前Aの設定領域に実タイプとして「きれい系」が設定され、棚前B及び鏡前の設定領域に実タイプとして「ビジネス系」が設定されている。ステップS74に進み、クライアント端末12は例えば図21に示す実タイプマッチ用データを実タイプマッチ用データ記憶部41に保存する。
図21は、実タイプマッチ用データの一例の構成図である。図21の実タイプマッチ用データは項目として領域名、領域データ及び想定タイプを有する。領域名は設定領域の名称であって、ユーザが設定領域を識別する識別情報の一例である。領域データはカメラ16から読み込んだ画像データ上の領域を一意に指定できる情報の一例である。想定タイプは実タイプを示す情報の一例である。
《活用事例3》
活用事例3は見た目属性を判断し、広告と連動させるものである。活用事例3は事前準備事項として、活用事例1の事前準備事項に加えて後述の広告定義データの設定が必要である。活用事例3の処理概要はカメラ16で撮影した画像ファイルの人物の見た目属性を見た目属性解析部33に解析させて、その解析結果に応じた広告を出力する。
図23は第3の活用事例を示すシステム構成の一例のイメージ図である。図23に示したシステム構成ではカメラ16からアップロードされた画像データの人物の見た目属性をサーバ装置10が解析し、解析された見た目属性と対応付けられた広告パターンの広告をデジタルサイネージディスプレイ43に表示させる。
図24は第3の活用事例を示す一例のフローチャートである。ステップS81においてカメラ16は属性設定(撮影条件)により、撮影に必要なパラメータ設定をユーザから受け付ける。ステップS82に進み、カメラ16は見た目属性の解析を行いたい人物が写る画像データをサーバ装置10にアップロードする。
ステップS83に進み、見た目属性解析部33は学習データ記憶部32に記憶されている特徴量パターンを用いて、カメラ16からアップロードされた画像データの人物の見た目属性を解析させる。ステップS84に進み、解析結果出力処理部35は図25に示すような広告定義データを参照し、解析された見た目属性と対応付けられた広告パターンをデジタルサイネージディスプレイ43に表示させる。
図25は広告定義データの一例の構成図である。図25の広告定義データは項目として見た目属性及び広告パターンを有する。広告定義データは見た目属性と広告パターンとを対応付ける。広告定義データは例えば広告定義データ記憶部42に記憶される。
《活用事例4》
活用事例4は、カメラ16で撮影する画像ファイルの領域に予め設定しておく見た目属性(実タイプ)と、その領域に写った人物の画像ファイルから解析された見た目属性とを比較した結果を、店舗内の展示物・レイアウト変更に活用するものである。活用事例4は事前準備事項として、活用事例2と同様な事前準備事項が必要である。
活用事例4の処理概要はクライアント端末12から実タイプマッチ用データの設定を行わせ、カメラ16で撮影した画像データの設定領域に写った人物の見た目属性をサーバ装置10が解析し、その解析結果と実タイプとを比較した結果をクライアント端末12等に表示して、店舗内の展示物・レイアウト変更に活用させる。
図26は第4の活用事例を示すシステム構成の一例のイメージ図である。図26に示したシステム構成ではカメラ16からアップロードされた画像データの設定領域に写った人物の見た目属性をサーバ装置10が解析し、その解析結果と実タイプマッチ用データとを比較して、その比較結果をクライアント端末12に表示させる。
図27は第4の活用事例を示す一例のフローチャートである。図27では左側にユーザが行う行動の店内フローを表し、右側に情報処理システム1Aが行う見た目属性解析処理フローを表している。ステップS91においてユーザは店舗内においてレイアウト整備や商材(展示物)展示を行う。ステップS92においてユーザは図27の右側に表した見た目属性解析処理フローの解析結果を参考に、店舗内においてレイアウト変更や展示商材の変更などを行う。
ステップS101において、カメラ16は属性設定(撮影条件)により、撮影に必要なパラメータ設定をユーザから受け付ける。ステップS102に進み、カメラ16は店舗近辺や店舗内の設定領域が写る画像データをサーバ装置10にアップロードする。
ステップS103に進み、見た目属性解析部33は学習データ記憶部32に記憶されている特徴量パターンを用いて、カメラ16からアップロードされた画像データの設定領域に写る人物の見た目属性を解析させる。ステップS104に進み、解析結果出力処理部35は見た目属性解析部33が解析した見た目属性と、実タイプマッチ用データに設定されている設定領域と対応付けられた実タイプとを比較し、解析結果出力をクライアント端末12に表示させる。
《活用事例5》
活用事例5は、カメラ16で撮影する画像ファイルの領域に予め設定しておく見た目属性(実タイプ)と、その領域に写った人物の画像ファイルから解析された見た目属性とを比較した結果を、見た目属性に応じたチラシ等の販促物の配布に活用するものである。
活用事例5の処理概要はクライアント端末12から実タイプマッチ用データの設定を行わせ、カメラ16で撮影した画像データの設定領域に写った人物の見た目属性をサーバ装置10が解析し、その解析結果と実タイプとを比較した結果をクライアント端末12等に表示して、店舗でのチラシ等の販促物の配布に活用させる。
図28は第5の活用事例を示すシステム構成の一例のイメージ図である。図28に示したシステム構成ではカメラ16からアップロードされた画像データの設定領域に写った人物の見た目属性をサーバ装置10が解析し、その解析結果と実タイプマッチ用データとを比較して、その比較結果に基づき、解析した見た目属性の顧客に配布するチラシのタイプをクライアント端末12に表示させる。
図29は第5の活用事例を示す一例のフローチャートである。図29では左側に店員が行う行動の店員処理フローを表し、右側に情報処理システム1Aが行う見た目属性解析処理フローを表している。ステップS111において店員は購買処理(レジ処理)を行う。ステップS112において店員は図29の右側に表した見た目属性解析処理フローの解析結果に基づきクライアント端末12に表示された、その顧客に配布するチラシのタイプを確認してチラシ等の販促物を配布できる。
ステップS121において、カメラ16は属性設定(撮影条件)により、撮影に必要なパラメータ設定をユーザから受け付ける。ステップS122に進み、カメラ16はレジ前の顧客が写る画像データをサーバ装置10にアップロードする。
ステップS123に進み、見た目属性解析部33は学習データ記憶部32に記憶されている特徴量パターンを用いて、カメラ16からアップロードされた画像データに写る顧客の見た目属性を解析させる。ステップS124に進み、解析結果出力処理部35は見た目属性解析部33が解析した見た目属性と、実タイプマッチ用データに設定されている設定領域と対応付けられた実タイプとを比較し、その比較結果に基づき、解析した見た目属性の顧客に配布するチラシのタイプをクライアント端末12に表示させる。
《活用事例6》
活用事例6は見た目属性を判断し、判断した見た目属性を既存会員情報へ付加するものである。活用事例6は、事前準備事項として、活用事例1と同様な事前準備事項が必要である。活用事例6の処理概要はカメラ16で撮影した画像ファイルの人物の見た目属性を見た目属性解析部33に解析させて、その見た目属性を既存会員情報へ付加する。
図30は第6の活用事例を示すシステム構成の一例のイメージ図である。図30に示したシステム構成ではカメラ16からアップロードされた画像データの顧客の見た目属性をサーバ装置10が解析し、その顧客の見た目属性を、会員カードなどで照合された顧客の会員情報に付加する。会員情報は会員D/B(会員データベース)に記憶されている。
図31は第6の活用事例を示す一例のフローチャートである。図31では左側に店員が行う行動の店員処理フローを表し、右側に情報処理システム1Aが行う見た目属性解析処理フローを表している。ステップS131において店員は顧客が持つ会員カード等から会員IDを読み込む。ステップS132に進み、店員は会員IDにより会員D/B記憶部44を照合し、ステップS133で顧客の会員情報を表示させる。そして、ステップS134に進み、店員は顧客に対して購買処理(レジ処理)を行う。
ステップS141において、カメラ16は属性設定(撮影条件)により、撮影に必要なパラメータ設定をユーザから受け付ける。ステップS142に進み、カメラ16はレジ前の顧客が写る画像データをサーバ装置10にアップロードする。
ステップS143に進み、見た目属性解析部33は学習データ記憶部32に記憶されている特徴量パターンを用いて、カメラ16からアップロードされた画像データに写る顧客の見た目属性を解析させる。ステップS144に進み、解析結果出力処理部35は見た目属性解析部33が解析した見た目属性を、その顧客の会員情報へ付加する。
このように顧客の会員情報へ見た目属性を付加することで、活用事例6では顧客の見た目属性から顧客の価値観を解析でき、顧客ごとの嗜好にマッチした販促・キャンペーンなどが可能となるため、売上げ向上の効果が得られる。また、顧客の会員情報へ見た目属性を付加することで、活用事例6では嗜好にマッチしない顧客への販促・キャンペーンなどを実施しないことで費用削減の効果が得られる。また、顧客の会員情報へ見た目属性を付加することで、活用事例6では年齢や職業などの従来の会員情報の項目から分からない顧客の嗜好や、自店舗の購入履歴だけでは分からない顧客の嗜好も、顧客の見た目属性から解析できる。
《活用事例7》
活用事例7は活用事例6で既存会員情報へ付加した見た目属性を販売促進に利用するものである。活用事例7は、事前準備事項として、活用事例6と同様な事前準備事項が必要である。活用事例7の処理概要はカメラ16で撮影した画像ファイルの人物の見た目属性を見た目属性解析部33に解析させて、その見た目属性を既存会員情報へ付加し、その見た目属性に応じて販促チャネル・販促物を自動判別する。
図32は第7の活用事例を示すシステム構成の一例のイメージ図である。図32に示したシステム構成ではカメラ16からアップロードされた画像データの顧客の見た目属性をサーバ装置10が解析し、その顧客の見た目属性を、会員カードなどで照合された顧客の会員情報に付加する。例えば販促ダイレクトメールの送付や販促メールの送信を管理する管理サーバは、その会員情報に付加された見た目属性に応じて顧客への販促チャネルの自動判別や顧客への販促メールの自動発信などが実現できる。
図33は第7の活用事例を示す一例のフローチャートである。図33では左側に店員が行う行動の店員処理フローを表し、右側に情報処理システム1Aが行う見た目属性解析処理フローを表している。ステップS151において店員は顧客が持つ会員カード等から会員IDを読み込む。ステップS152に進み、店員は会員IDにより会員D/B記憶部44を照合し、ステップS153で顧客の会員情報を表示させる。そして、ステップS154に進み、店員は顧客に対して購買処理(レジ処理)を行う。その後、ステップS155において例えば販促ダイレクトメールの送付や販促メールの送信を管理する管理サーバは会員情報に付加された、その顧客に適した販促チャネルでの販促物の送付や送信を自動で行うか、又は、ユーザが手動で行うための情報を出力する。
ステップS161において、カメラ16は属性設定(撮影条件)により、撮影に必要なパラメータ設定をユーザから受け付ける。ステップS162に進み、カメラ16はレジ前の顧客が写る画像データをサーバ装置10にアップロードする。
ステップS163に進み、見た目属性解析部33は学習データ記憶部32に記憶されている特徴量パターンを用いて、カメラ16からアップロードされた画像データに写る顧客の見た目属性を解析させる。ステップS164に進み、解析結果出力処理部35は見た目属性解析部33が解析した見た目属性に応じて顧客ごとに適した販促チャネル・販促物を自動判別し、その販促チャネル・販促物を、その顧客の会員情報へ付加する。
《活用事例8》
活用事例8は見た目属性を判断し、判断した見た目属性を既存会員情報へ付加すると共にWeb活動情報と連携させるものである。活用事例8は事前準備事項として、活用事例6と同様な事前準備事項が必要である。活用事例8の処理概要はカメラ16で撮影した画像ファイルの人物の見た目属性を見た目属性解析部33に解析させて、その見た目属性を既存会員情報へ付加すると共に、Web活動情報記憶部45に記憶されているWeb活動情報を連携させる。Web活動情報は顧客の購買履歴、閲覧情報、カート情報、検索エンジンなどの情報である。
図34は第8の活用事例を示すシステム構成の一例のイメージ図である。図34に示したシステム構成ではカメラ16からアップロードされた画像データの顧客の見た目属性をサーバ装置10が解析し、その顧客の見た目属性を、会員カードなどで照合された顧客の会員情報に付加する。また、顧客の会員情報には、その顧客の購買履歴や閲覧情報などのWeb活動情報が連携される。
図35は第8の活用事例を示す一例のフローチャートである。図35では左側に店員が行う行動の店員処理フローを表し、真ん中に情報処理システム1Aが行う見た目属性解析処理フローを表し、右側に顧客が行うWeb内活動フローを表している。ステップS171において店員は顧客が持つ会員カード等から会員IDを読み込む。ステップS172に進み、店員は会員IDにより会員D/B記憶部44を照合し、ステップS173で顧客の会員情報を表示させる。そして、ステップS174に進み、店員は顧客に対して購買処理(レジ処理)を行う。
ステップS181において、カメラ16は属性設定(撮影条件)により、撮影に必要なパラメータ設定をユーザから受け付ける。ステップS182に進み、カメラ16はレジ前の顧客が写る画像データをサーバ装置10にアップロードする。
ステップS183に進み、見た目属性解析部33は学習データ記憶部32に記憶されている特徴量パターンを用いて、カメラ16からアップロードされた画像データに写る顧客の見た目属性を解析させる。ステップS184に進み、解析結果出力処理部35は見た目属性解析部33が解析した見た目属性を、その顧客の会員情報へ付加する。
ステップS191において、顧客はWebページを閲覧することで、その閲覧ログを閲覧情報として、その顧客の会員情報へ付加する。ステップS192において、顧客はWebページでカートに商品を入れることで、そのカート内ログをカート情報として、その顧客の会員情報へ付加する。ステップS193において、顧客はWebページで商品の注文決済をすることで、その注文ログを購買履歴として、その顧客の会員情報へ付加する。
《活用事例9》
活用事例9は活用事例8で既存会員情報へ付加した見た目属性及びWeb活動情報を販売促進に利用するものである。活用事例9は、事前準備事項として、活用事例7及び8と同様な事前準備事項が必要である。活用事例9の処理概要は、カメラ16で撮影した画像ファイルの人物の見た目属性を見た目属性解析部33に解析させて、その見た目属性を既存会員情報へ付加すると共に、Web活動情報記憶部45に記憶されているWeb活動情報を連携させ、顧客の見た目属性に応じた販促チャネル・販促物を自動判別する。
図36は第9の活用事例を示すシステム構成の一例のイメージ図である。図36に示したシステム構成ではカメラ16からアップロードされた画像データの顧客の見た目属性をサーバ装置10が解析し、その顧客の見た目属性を、会員カードなどで照合された顧客の会員情報に付加する。また、顧客の会員情報には、その顧客の購買履歴や閲覧情報などのWeb活動情報が連携される。例えば販促ダイレクトメールの送付や販促メールの送信を管理する管理サーバは、その会員情報に付加された見た目属性及びWeb活動情報に応じて顧客への販促チャネルの自動判別や顧客への販促メールの自動発信などが実現できる。
図37は第9の活用事例を示す一例のフローチャートである。図37では左側に店員が行う行動の店員処理フローを表し、真ん中に情報処理システム1Aが行う見た目属性解析処理フローを表し、右側に顧客が行うWeb内活動フローを表している。ステップS201において店員は顧客が持つ会員カード等から会員IDを読み込む。ステップS202に進み、店員は会員IDにより会員D/B記憶部44を照合し、ステップS203で顧客の会員情報を表示させる。そして、ステップS204に進み、店員は顧客に対して購買処理(レジ処理)を行う。その後、ステップS205において例えば販促ダイレクトメールの送付や販促メールの送信を管理する管理サーバは会員情報に付加された、その顧客に適した販促チャネルでの販促物の送付や送信を自動で行うか、又は、ユーザが手動で行うための情報を出力する。
ステップS211において、カメラ16は属性設定(撮影条件)により、撮影に必要なパラメータ設定をユーザから受け付ける。ステップS212に進み、カメラ16はレジ前の顧客が写る画像データをサーバ装置10にアップロードする。
ステップS203に進み、見た目属性解析部33は学習データ記憶部32に記憶されている特徴量パターンを用いて、カメラ16からアップロードされた画像データに写る顧客の見た目属性を解析させる。ステップS214に進み、解析結果出力処理部35は見た目属性解析部33が解析した見た目属性を、その顧客の会員情報へ付加する。
ステップS221において、顧客はWebページを閲覧することで、その閲覧ログを閲覧情報として、その顧客の会員情報へ付加する。ステップS222において、顧客はWebページでカートに商品を入れることで、そのカート内ログをカート情報として、その顧客の会員情報へ付加する。ステップS223において、顧客はWebページで商品の注文決済をすることで、その注文ログを購買履歴として、その顧客の会員情報へ付加する。
《活用事例10》
活用事例10は活用事例6で既存会員情報へ付加した見た目属性の時間経過による変化の予測を行うものである。活用事例10は、事前準備事項として、活用事例6と同様な事前準備事項が必要である。活用事例10の処理概要はカメラ16で撮影した画像ファイルの人物の見た目属性を見た目属性解析部33に解析させて、その見た目属性(フェミニン系50%、キャリア系40%、ストリート系10%などの割合を含む)を既存会員情報へ付加する。また、既存会員情報には顧客の時間経過(年齢経過、ライフイベントなど)に伴う見た目属性の変化の情報も蓄積しておく。このように多数の顧客の見た目属性の時間経過に伴う変化の情報を蓄積しておくことで、活用事例10では現在の顧客の見た目属性から時間経過に伴う見た目属性の変化を予測できる。
図38は第10の活用事例を示すシステム構成の一例のイメージ図である。図38に示したシステム構成ではサーバ装置10により解析された顧客の見た目属性が会員D/B記憶部44に記憶されている。会員・過去D/B記憶部47は顧客の見た目属性の時間経過による変化の情報を蓄積する。このような顧客の見た目属性の時間経過による変化の情報を利用することで、第10の活用事例ではサーバ装置10が見た目属性を解析した顧客の時間経過(5年後など)による見た目属性の変化を予測できる。
図39は第10の活用事例を示す一例のフローチャートである。図39では左側に見た目属性解析予測フローを表し、右側に見た目属性解析処理フローを表している。
ステップS231においてサーバ装置10は属性設定(変化条件)により、見た目属性解析予測に必要なパラメータ設定をユーザから受け付ける。ステップS232でサーバ装置10は会員D/B記憶部44から現在の顧客の見た目属性を読み込み、また、会員・過去D/B記憶部47に蓄積された多人数の顧客の見た目属性の時間経過による変化の情報を読み込む。ステップS233においてサーバ装置10はステップS232で読み込んだ現在の顧客の見た目属性と、会員・過去D/B記憶部47に蓄積された多人数の顧客の見た目属性の時間経過による変化の情報と、に基づき、顧客の時間経過に伴う見た目属性の変化を予測し、解析結果として出力する。
ステップS241において、カメラ16は属性設定(撮影条件)により、撮影に必要なパラメータ設定をユーザから受け付ける。ステップS242に進み、カメラ16はレジ前の顧客が写る画像データをサーバ装置10にアップロードする。
ステップS243に進み、見た目属性解析部33は学習データ記憶部32に記憶されている特徴量パターンを用いて、カメラ16からアップロードされた画像データに写る顧客の見た目属性を解析させる。ステップS244に進み、見た目属性解析部33は解析した顧客の現在の見た目属性と会員D/B記憶部44の会員情報に付加されている過去の見た目属性とを比較し、変化があればステップS245において、ステップS243での解析結果である現在の見た目属性を会員・過去D/B記憶部47に蓄積させる。ステップS246に進み、解析結果出力処理部35は見た目属性解析部33が解析した見た目属性を、その顧客の会員情報へ付加する。
このように多数の顧客の見た目属性の時間経過による変化の情報を会員・過去D/B記憶部47に蓄積していくことにより、第10の活用事例では、現在の見た目属性の時間経過による変化を、蓄積された多数の顧客の見た目属性の時間経過による変化の情報を根拠に予測できる。
なお、例えば顧客の見た目属性は過去一年ぐらいの来店履歴から見た目属性の構成の割合を計算してもよい。例えば顧客の来店履歴がガーリー系→フェミニン系→きれい系→お姉ギャル系→フェミニン系→きれい系であり、フェミニン系→きれい系→お姉ギャル系→フェミニン系→きれい系が一年以内の来店である場合は、見た目属性の構成の割合は例えばフェミニン系60%、お姉ギャル17%、きれい系33%となる。
また、例えば現在の見た目属性の時間経過による変化の予測は、現在の見た目属性の構成の割合(例えばガーリー系50%、ストリート系40%、フェミニン系10%)である場合に、○年後の見た目属性の構成の割合を例えばフェミニン系50%、お姉ギャル系30%、キャリア系20%のように予測する。
また、例えば現在の見た目属性の時間経過による変化の予測は、現在の見た目属性の構成の割合(例えばフェミニン系50%、お姉ギャル系30%、キャリア系20%)である場合に、○年後の見た目属性の構成の割合を例えばきれい系40%、フェミニン系20%、キャリア系20%、ミセス系10%のように予測する。
このように第10の活用事例では蓄積してきた特徴量パターンのビックデータから同タイプの顧客の見た目属性の変化を蓄積して、個人の見た目属性の変化を予測する。例えば年齢などの会員情報と連携することで、第10の活用事例では、より正確な見た目属性の変化を予測できる。
さらに、第10の活用事例では顧客の見た目属性の変化から、その顧客のライフイベントの予測も可能となる。来店履歴がフェミニン系→フェミニン系→フェミニン系→ミセス系→フェミニン系→ミセス系→ミセス系の顧客は、3番目のフェミニン系と4番目のミセス系との間で、子供の出産などのライフイベントが発生したと予測できる。
また、来店履歴がガーリー系→ガーリー系→お嬢さんOL系→フェミニン系→お嬢さんOL系→フェミニン系の顧客は、3番目のお嬢さんOL系と4番目のフェミニン系と5番目のお嬢さんOL系との間で、就職などのライフイベントが発生したと予測できる。
本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。なお、本実施形態で説明した情報処理システム1A及び1Bは一例であって、用途や目的に応じて様々なシステム構成例があることは言うまでもない。
1A、1B 情報処理システム
10 サーバ装置
12 クライアント端末
14 画像ファイル記憶装置
16 カメラ
18 ネットワーク
20 情報処理装置
31 見た目属性学習部
32 学習データ記憶部
33 見た目属性解析部
34 解析結果データ記憶部
35 解析結果出力処理部
36 複製処理部
41 実タイプマッチ用データ記憶部
42 広告定義データ記憶部
43 デジタルサイネージディスプレイ
44 会員D/B記憶部
45 Web活動情報記憶部
46 顧客用端末
47 会員・過去D/B記憶部
500 コンピュータ
特開2017−76315号公報

Claims (14)

  1. 一台以上の情報処理装置を含む構成の情報処理システムであって、
    同一の価値観を持つ人物の画像としてユーザにより選択された複数枚の撮影画像から機械学習の手法を用いて構築された見た目属性の特徴量パターンを一種類以上記憶する特徴量パターン記憶手段と、
    前記特徴量パターン記憶手段に記憶されている一種類以上の前記特徴量パターンを用いて、解析用データとして入力された画像に写る人物の前記見た目属性を解析する見た目属性解析手段と、
    前記見た目属性解析手段による解析結果に応じた出力を行う解析結果出力手段と、
    を有する情報処理システム。
  2. 同一の価値観を持つ人物の画像としてユーザにより選択された複数枚の撮影画像から機械学習の手法を用いて前記見た目属性の特徴量パターンを構築し、前記特徴量パターン記憶手段に記憶させる見た目属性学習手段、
    を更に有する請求項1記載の情報処理システム。
  3. 画像を撮影し、前記解析用データとして前記見た目属性解析手段に入力する撮影手段、
    を更に有する請求項1又は2記載の情報処理システム。
  4. 同一の価値観を持つ人物の画像としてユーザにより選択された複数の撮影画像を加工して複製する複製処理手段、を更に有し、
    前記複製処理手段は、前記見た目属性ごとに設定された加工処理により、前記同一の価値観を持つ人物の画像としてユーザにより選択された複数の撮影画像を加工して複製すること
    を特徴とする請求項1乃至3何れか一項記載の情報処理システム。
  5. 前記解析結果出力手段は、前記見た目属性解析手段により解析した前記解析用データとして入力された画像に写る人物の前記見た目属性の適合度を出力すること
    を特徴とする請求項1乃至4何れか一項記載の情報処理システム。
  6. 前記解析結果出力手段は、前記見た目属性解析手段による解析結果に応じて前記見た目属性の相関値を算出しておき、前記見た目属性解析手段により解析した前記解析用データとして入力された画像に写る人物の前記見た目属性と、その見た目属性と相関値が近い他の見た目属性とに応じた出力を行うこと
    を特徴とする請求項1乃至4何れか一項記載の情報処理システム。
  7. 前記解析結果出力手段は、前記解析用データとして入力される画像に対する1つ以上の設定領域の指定と、設定領域ごとに前記見た目属性の指定とを予め受け付け、前記見た目属性解析手段により解析された前記解析用データの前記設定領域に写る人物の前記見た目属性と、前記設定領域に指定された前記見た目属性との比較結果に応じた出力を行うこと
    を特徴とする請求項1乃至4何れか一項記載の情報処理システム。
  8. 前記解析結果出力手段は、前記見た目属性に応じた広告情報が予め定義された広告定義データを利用し、前記見た目属性解析手段により解析した前記解析用データとして入力された画像に写る人物の前記見た目属性に応じた広告情報を出力すること
    を特徴とする請求項1乃至4何れか一項記載の情報処理システム。
  9. 前記解析結果出力手段は、前記見た目属性解析手段により解析した前記解析用データとして入力された画像に写る人物の前記見た目属性を、前記人物の既存情報へ付加すること
    を特徴とする請求項1乃至4何れか一項記載の情報処理システム。
  10. 前記解析結果出力手段は、前記見た目属性解析手段による解析結果に基づき、前記解析用データとして入力された画像に写る人物の既存情報へ前記人物の時間経過に伴う前記見た目属性の変化の情報が、複数人分蓄積された蓄積情報に基づき、前記見た目属性解析手段により解析した前記解析用データとして入力された画像に写る人物の前記見た目属性の時間経過による変化を予測して出力すること
    を特徴とする請求項9記載の情報処理システム。
  11. 前記解析結果出力手段は、前記蓄積情報に基づき、前記人物の時間経過に伴う前記見た目属性の変化の情報から前記人物のライフイベントの発生を予測すること
    を特徴とする請求項10記載の情報処理システム。
  12. コンピュータを、
    同一の価値観を持つ人物の画像としてユーザにより選択された複数枚の撮影画像から機械学習の手法を用いて構築された見た目属性の特徴量パターンを一種類以上記憶する特徴量パターン記憶手段、
    前記特徴量パターン記憶手段に記憶されている一種類以上の前記特徴量パターンを用いて、解析用データとして入力された画像に写る人物の前記見た目属性を解析する見た目属性解析手段、
    前記見た目属性解析手段による解析結果に応じた出力を行う解析結果出力手段、
    として機能させるためのプログラム。
  13. 同一の価値観を持つ人物の画像としてユーザにより選択された複数枚の撮影画像から機械学習の手法を用いて構築された見た目属性の特徴量パターンを一種類以上記憶する特徴量パターン記憶手段と、
    前記特徴量パターン記憶手段に記憶されている一種類以上の前記特徴量パターンを用いて、解析用データとして入力された画像に写る人物の前記見た目属性を解析する見た目属性解析手段と、
    前記見た目属性解析手段による解析結果に応じた出力を行う解析結果出力手段と、
    を有する情報処理装置。
  14. 一台以上の情報処理装置を含む構成の情報処理システムにおいて実行される情報出力方法であって、
    同一の価値観を持つ人物の画像としてユーザにより選択された複数枚の撮影画像から機械学習の手法を用いて構築された見た目属性の特徴量パターンを一種類以上記憶する特徴量パターン記憶手段に記憶されている一種類以上の前記特徴量パターンを用いて、解析用データとして入力された画像に写る人物の前記見た目属性を解析するステップと、
    前記見た目属性解析手段による解析結果に応じた出力を行うステップと、
    を有する情報出力方法。
JP2018003093A 2018-01-12 2018-01-12 情報処理システム、プログラム、情報処理装置及び情報出力方法 Active JP7062960B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018003093A JP7062960B2 (ja) 2018-01-12 2018-01-12 情報処理システム、プログラム、情報処理装置及び情報出力方法
US16/238,845 US11093974B2 (en) 2018-01-12 2019-01-03 Image attribute processing system, image attribute processing apparatus, and method of processing image attributes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018003093A JP7062960B2 (ja) 2018-01-12 2018-01-12 情報処理システム、プログラム、情報処理装置及び情報出力方法

Publications (2)

Publication Number Publication Date
JP2019124987A true JP2019124987A (ja) 2019-07-25
JP7062960B2 JP7062960B2 (ja) 2022-05-09

Family

ID=67212982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018003093A Active JP7062960B2 (ja) 2018-01-12 2018-01-12 情報処理システム、プログラム、情報処理装置及び情報出力方法

Country Status (2)

Country Link
US (1) US11093974B2 (ja)
JP (1) JP7062960B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022164348A (ja) * 2021-04-16 2022-10-27 アフラック生命保険株式会社 ミラー型表示装置及び情報提供システム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11210499B2 (en) * 2018-07-06 2021-12-28 Kepler Vision Technologies Bv Determining a social group to which customers belong from appearance and using artificial intelligence, machine learning, and computer vision, for estimating customer preferences and intent, and for improving customer services
CN111435432B (zh) * 2019-01-15 2023-05-26 北京市商汤科技开发有限公司 网络优化方法及装置、图像处理方法及装置、存储介质
CN112686019A (zh) * 2020-12-25 2021-04-20 深圳市元征科技股份有限公司 车辆传感器数据解析方法、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271885A (ja) * 2008-05-12 2009-11-19 Panasonic Corp 年齢推定方法及び年齢推定装置
JP2013025725A (ja) * 2011-07-26 2013-02-04 Sony Corp 情報処理装置、フレーズ出力方法及びプログラム
JP2015121611A (ja) * 2013-12-20 2015-07-02 フリュー株式会社 写真シール作成装置、画像編集方法、およびプログラム
JP2016061955A (ja) * 2014-09-18 2016-04-25 カシオ計算機株式会社 コンテンツ出力装置、コンテンツ出力方法及びプログラム
JP2017207840A (ja) * 2016-05-17 2017-11-24 株式会社リコー 画像処理装置、画像処理システム、画像処理方法、プログラムおよび記録媒体
WO2017203600A1 (ja) * 2016-05-24 2017-11-30 株式会社日立ハイテクノロジーズ 欠陥分類装置および欠陥分類方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4537117B2 (ja) * 2004-05-17 2010-09-01 株式会社リコー データ管理システム、プログラム及び記憶媒体
US20070091106A1 (en) * 2005-10-25 2007-04-26 Moroney Nathan M Adaptive lexical classification system
US8903198B2 (en) * 2011-06-03 2014-12-02 International Business Machines Corporation Image ranking based on attribute correlation
US8644561B2 (en) * 2012-01-18 2014-02-04 Xerox Corporation License plate optical character recognition method and system
US9245191B2 (en) * 2013-09-05 2016-01-26 Ebay, Inc. System and method for scene text recognition
US20150163311A1 (en) * 2013-11-26 2015-06-11 Martin Charles Heath Systems and methods for capturing, managing, and triggering user journeys associated with trackable digital objects
JP6191581B2 (ja) * 2014-10-31 2017-09-06 株式会社リコー 画像処理システム、管理システム、画像処理装置、校正原稿生成方法及びプログラム
JP2017076315A (ja) 2015-10-16 2017-04-20 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP6739200B2 (ja) * 2016-03-24 2020-08-12 キヤノン株式会社 映像処理装置、映像処理システムおよび制御方法
US10235604B2 (en) * 2016-09-13 2019-03-19 Sophistio, Inc. Automatic wearable item classification systems and methods based upon normalized depictions
US10163003B2 (en) * 2016-12-28 2018-12-25 Adobe Systems Incorporated Recognizing combinations of body shape, pose, and clothing in three-dimensional input images
US10755149B2 (en) * 2017-05-05 2020-08-25 Hrl Laboratories, Llc Zero shot machine vision system via joint sparse representations
US10277714B2 (en) * 2017-05-10 2019-04-30 Facebook, Inc. Predicting household demographics based on image data
EP3754545A1 (en) * 2018-01-10 2020-12-23 Trax Technology Solutions Pte Ltd. Automatically monitoring retail products based on captured images
US11783408B2 (en) * 2018-08-06 2023-10-10 Rajesh Kumar Saligrama Ananthanarayana Computer vision based methods and systems of universal fashion ontology fashion rating and recommendation
US11138418B2 (en) * 2018-08-06 2021-10-05 Gal Zuckerman Systems and methods for tracking persons by utilizing imagery data captured by on-road vehicles
US10963939B1 (en) * 2018-08-27 2021-03-30 A9.Com, Inc. Computer vision based style profiles
US10992902B2 (en) * 2019-03-21 2021-04-27 Disney Enterprises, Inc. Aspect ratio conversion with machine learning
US20210035183A1 (en) * 2019-07-31 2021-02-04 Synchronoss Technologies, Inc. Method and system for a recommendation engine utilizing progressive labeling and user content enrichment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271885A (ja) * 2008-05-12 2009-11-19 Panasonic Corp 年齢推定方法及び年齢推定装置
JP2013025725A (ja) * 2011-07-26 2013-02-04 Sony Corp 情報処理装置、フレーズ出力方法及びプログラム
JP2015121611A (ja) * 2013-12-20 2015-07-02 フリュー株式会社 写真シール作成装置、画像編集方法、およびプログラム
JP2016061955A (ja) * 2014-09-18 2016-04-25 カシオ計算機株式会社 コンテンツ出力装置、コンテンツ出力方法及びプログラム
JP2017207840A (ja) * 2016-05-17 2017-11-24 株式会社リコー 画像処理装置、画像処理システム、画像処理方法、プログラムおよび記録媒体
WO2017203600A1 (ja) * 2016-05-24 2017-11-30 株式会社日立ハイテクノロジーズ 欠陥分類装置および欠陥分類方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022164348A (ja) * 2021-04-16 2022-10-27 アフラック生命保険株式会社 ミラー型表示装置及び情報提供システム
JP7454523B2 (ja) 2021-04-16 2024-03-22 アフラック生命保険株式会社 ミラー型表示装置及び情報提供システム

Also Published As

Publication number Publication date
JP7062960B2 (ja) 2022-05-09
US11093974B2 (en) 2021-08-17
US20190220900A1 (en) 2019-07-18

Similar Documents

Publication Publication Date Title
CN109559208B (zh) 一种信息推荐方法、服务器及计算机可读介质
CN110663023B (zh) 用于优化计算机机器学习的方法和系统
CN110363213B (zh) 服装图像的认知分析和分类的方法和系统
JP7062960B2 (ja) 情報処理システム、プログラム、情報処理装置及び情報出力方法
JP5230612B2 (ja) コンテキスト画像入り広告の生成
US20180047071A1 (en) System and methods for aggregating past and predicting future product ratings
Dzyabura et al. Leveraging the power of images in managing product return rates
JP5914549B2 (ja) 情報処理装置および情報分析方法
CN106776716B (zh) 一种智能匹配销售顾问和用户的方法及设备
CN111400613A (zh) 物品推荐方法、装置、介质及计算机设备
CN110782259A (zh) 一种会员等级管理方法和装置
Miniukovich et al. Pick me! getting noticed on google play
Nastiti et al. Smart shopping prediction on smart shopping with linear regression method
KR102276427B1 (ko) 신규 리뷰 작성에 대한 추정 가치 산출 장치 및 방법
KR102102572B1 (ko) 온라인 쇼핑몰을 제공하는 시스템 및 방법
CN117114772A (zh) 投放素材挖掘方法、装置、设备及存储介质
Liu et al. Graphic image classification method based on an attention mechanism and fusion of multilevel and multiscale deep features
CN116186541A (zh) 一种推荐模型的训练方法及装置
JP7310899B2 (ja) ユーザ・商品マップ推定装置、方法およびプログラム
JP3492991B2 (ja) 画像処理装置及び画像処理方法並びに記録媒体
KR20210052237A (ko) 인공지능에 기반한 상품 카탈로그 자동 분류 시스템
JP2016122472A (ja) 情報処理装置および情報分析方法
Casabayó et al. Using AI techniques in the grocery industry: Identifying the customers most likely to defect
Goswami et al. Assessing product image quality for online shopping
Prastiwi Online shopping website analysis for marketing strategy using clickstream data and extra trees classifier algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R151 Written notification of patent or utility model registration

Ref document number: 7062960

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151