JP2020067720A - 人属性推定システム、それを利用する情報処理装置及び情報処理方法 - Google Patents
人属性推定システム、それを利用する情報処理装置及び情報処理方法 Download PDFInfo
- Publication number
- JP2020067720A JP2020067720A JP2018198747A JP2018198747A JP2020067720A JP 2020067720 A JP2020067720 A JP 2020067720A JP 2018198747 A JP2018198747 A JP 2018198747A JP 2018198747 A JP2018198747 A JP 2018198747A JP 2020067720 A JP2020067720 A JP 2020067720A
- Authority
- JP
- Japan
- Prior art keywords
- person
- human
- attribute
- information
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
【課題】実エリア内の人の属性を推定することに利用することのできる人属性推定システムを提供する。【解決手段】人属性推定システム11は、画像から抽出される人の外見的特徴を表す人特徴情報を抽出し(S123)、人特徴情報で表される外見的特徴を有する人の属性を表す人属性情報を取得する(S126)情報処理装置と、複数の画像のそれぞれに現れる人について人特徴情報及び人属性情報を用い、所定のAI学習プロセスに従って、人特徴情報にて外見的特徴が表される人の属性を学習し、所定のAI推定プロセスに従って、人の属性を表す人属性情報を推定演算するAI推定演算部と、を有する。【選択図】図3
Description
本発明は、人の属性を推定する人属性推定システム、及びそのシステムを利用して実エリアで行動する人の属性を推定する情報処理装置及び情報処理方法に関する。
従来、特許文献1に開示される情報処理装置が知られている。この情報処理装置では、インターネット上に公開される広告に対するユーザ(人)の特定のアクション(行動)のログであるコンバージョンログやそのコンバージョンログに至るまでに閲覧するサイトの経路等に基づいて各ユーザが行動(閲覧、コンバージョン)に依存したいずれの階層(認知、興味・関心、検討及びコンバージョン直前)にあるかが推定される。そして、その推定結果に基づいてファネル構造がモデル化される。
このようにモデル化されたファネル構造は、インターネット上で広告の最適化を図ることに利用することができる。
上述した情報処理装置は、インターネット上でのユーザの行動に依存したユーザの属性(ファネル構造における階層)を推定するものであり、実店舗等の実エリア内における人の行動に依存した属性を推定することができない。
本発明は、このような事情に鑑みてなされたもので、実エリア内における人の属性を推定することに利用することのできる人属性推定システムを提供するものである。
また、本発明は、上記人属性推定システムを利用して、実エリア内における人の属性を推定する情報処理装置及び情報処理方法を提供するものである。
本発明に係る人属性推定システムは、人の外見を表す画像から抽出される前記画像に現れる人の外見的特徴を表す人特徴情報を取得する人特徴取得手段と、前記人特徴取得手段にて取得される人特徴情報で表される外見的特徴を有する人の属性を表す人属性情報を取得する人属性取得手段と、を備え、複数の画像のそれぞれに現れる人について前記人特徴取得手段及び前記人属性取得手段にて取得される前記人特徴情報及び人属性情報を用い、所定のAI学習プロセスに従って、人特徴情報にて外見的特徴が表される人の属性を学習してなる人属性推定システムであって、提供される人の外見的特徴を表す人特徴情報から、所定のAI推定プロセスに従って、前記人の属性を表す人属性情報を推定演算するAI推定演算部を有する構成となる。
このような構成によれば、複数の画像のそれぞれに現れる人の外見的特徴を表す人特徴情報が取得され、更に、各画像に現れる人の属性を表す人属性情報が取得される。各画像に現れる人について取得される人特徴情報及び人属性情報を用い、所定のAI学習プロセスに従って、人特徴情報にて外見的特徴が表される人の属性についての学習が行われる。そして、人の外見的特徴を表す人特徴情報が提供されると、所定のAI推定プロセスに従った推定演算により、前記提供された人特徴情報により外見的特徴が表される人の属性を表す人属性情報が得られる。
また、本発明に係る情報処理装置は、前述した人属性推定システムにアクセス可能な情報処理装置であって、あるエリアの所定場所に設置された撮影装置での撮影により得られる人の外見を表す画像を取得するエリア撮影画像取得手段と、前記撮影画像取得手段にて取得された画像を解析して、該画像に現れる人の外見的特徴を表す人特徴情報を抽出する人特徴抽出手段と、前記人属性推定システムにアクセスして、前記人特徴抽出手段にて得られた前記人特徴情報から前記AI推定演算部により推定演算される人属性情報を取得する推定人属性取得手段と、を有する構成となる。
このような構成によれば、あるエリアに設置された撮影装置での撮影により得られた人の外見を表す画像が取得され、その画像を解析してその画像に現れる人の外見的特徴を表す人特徴情報が抽出されると、前述した人属性システムにアクセスして、前記得られた人特徴情報から、前記人属性システム(AI推定演算部)にて推定演算される人属性情報が取得される。これにより、前記エリアに存在する人の属性を表す人属性情報を収集することができる。
本発明に係る情報処理装置において、前記エリア撮影画像取得手段にて取得される複数の画像に現れる複数の人について前記AI推定演算部により推定演算された人属性情報を、所定の統計的演算手法に従って、演算処理して、前記エリア内に存在した人の属性についての統計情報を取得する、人属性統計演算手段を有する、構成とすることができる。
このような構成によれば、撮影装置での撮影にて得られた複数の画像に現れる複数の人についてAI推定演算部での推定演算により得られたエリア内の複数の人についての人属性情報が、所定の統計的演算手法に従って演算処理されて、前記エリア内に存在した人の属性についての統計情報が得られる。
本発明に係る情報処理装置において、前記人特徴抽出手段にて得られる人特徴情報及び前記推定人属性取得手段にて取得される人属性情報を、学習情報として前記人属性推定システムに提供する学習情報提供手段を有する構成とすることができる。
このような構成によれば、エリアに設置された撮影装置での撮影により得られる実際に前記エリアに存在した人の外見を表す画像から得られる人特徴情報及び人属性情報が、学習情報として人属性推定システムに提供される。人属性推定システムは、その提供された人特徴情報及び人属性情報を加味し、所定のAI学習プロセスに従って、画像から抽出された人特徴情報によって外観的特徴が表される人の属性を学習することができる。
本発明に係る情報処理装置において、前記撮影装置での撮影により得られた画像に現れる人の行動を表す行動情報を生成する人行動取得手段を有する構成とすることができる。
このような構成によれば、エリア内の人の行動を人属性情報で表される属性に関連付けて解析することができる。
本発明に係る情報装置において、前記人行動取得手段は、前記エリア撮影画像取得手段にて取得された画像を解析して、前記画像に現れる人の行動を表す行動情報を生成するエリア人行動画像解析手段を有する構成とすることができる。
このような構成によれば、エリアに設置した撮影装置での撮影により得られた画像から、その画像に現れる人の行動を表す行動情報を得ることができる。
また、本発明に係る情報処理方法は、前述した人属性推定システムにアクセス可能な情報処理装置における情報処理方法であって、あるエリアの所定場所に設置された撮影装置での撮影により得られる人の外見を表す画像を取得するエリア撮影画像取得ステップと、前記撮影画像取得ステップにて取得された画像から該画像に現れる人の外見的特徴を表す人特徴情報を抽出する人特徴抽出ステップと、前記人属性推定システムにアクセスして、前記人特徴抽出ステップにて得られた前記人特徴情報から前記AI推定演算手段により推定演算される人属性情報を取得する推定人属性取得ステップと、を有する構成となる。
本発明に係る人属性推定システムによれば、実エリア内における人の属性を推定することに利用することができる。
また、本発明に係る情報処理装置及び情報処理方法によれば、上記人属性推定システムを利用して、実エリア内における人の属性を実際に推定することができる。
以下、本発明の実施の形態について図面を用いて説明する。
本発明の実施の形態に係る人属性推定システム及び情報処理装置が適用されるシステムは、図1に示すように構成される。
図1において、このシステムは、サーバ装置10、データベースを格納する記憶装置13、一又は複数のカメラ装置21(撮影装置)、及びPC端末装置22から構成されている。サーバ装置10は、AI技術により構築される人属性推定システム11及び一般的なコンピュータにて構成される情報処理装置12を含む。カメラ装置21は、サーバ装置10から提供される情報提供サービスを契約している店舗Es(エリア)の所定場所に設置されている。PC端末装置22は、店舗の管理者や従業員が操作可能な場所、例えば、当該店舗に設置される。サーバ装置10(情報処理装置12)、店舗内のカメラ装置21及びPC端末装置22は、インターネット100に接続されている。情報処理装置12は、インターネット100を介して、カメラ装置21からの撮影画像に係る情報を受信することができる。また、PC端末装置22は、インターネット100を介して、サーバ装置10(情報処理装置12)から提供される情報を受信することができる。
サーバ装置10内の人属性推定システム11は、DNN(Deep Neural Network:ディープ・ニューラルネットワーク)で構築されており、例えば、図2に示すように、人の外見を表す画像から抽出される前記画像に現れる人の外見的特徴を表す人特徴データ(人特徴情報)及びその人特徴データで表される外見的特徴を有する人の属性を表す人属性データ(人属性情報)を学習データとして取得する学習データ取得機能111(人特徴取得手段、人属性取得手段)、前記学習データを用いて深層学習(AI学習プロセス)を行うモデル学習機能112、及び前記深層学習により構築される学習済みモデル113を有している。学習済みモデル113(AI推定演算部)は、提供される人特徴データから、DNNの構造に基づいたAI推定プロセスに従って、人の属性を表す人属性データを推定演算する。
インターネット100上から、実際のカメラ装置での撮影により、また、写真のスキャン等から、人の外見を表す多数の画像が取得され、各画像を解析することにより、各画像に現れる人の外見的特徴を表す人特徴データが抽出される。例えば、人の顔の特徴を表す500項目(例えば、目、鼻、口等の形状や位置等)の顔特徴量が人特徴データ(500次元データ)として抽出される。また、前記多数の画像のそれぞれから、種々の推定エンジンを用いて、画像に現れる人の属性、例えば、性別(男女)、年齢層、感情(悲しさ、嬉しさ、怒り、等)、団体属性(二人、家族、一人等)、ライフスタイル属性(女性・普通層、女性・セレブ層、男性・アクティブシニア層等)等の人属性データが得られる。このように得られた多数の人特徴データ、及びその人特徴データで表される外見的特徴を有する人の属性データが、例えば、情報処理装置12によって、記憶装置13に、ビックデータ(データベース)として格納される。なお、前述した人特徴データ及び人属性データの生成は、情報処理装置12が行うようにしても、また、他の装置が行うようにしてもよい。
また、取得された多くの画像(商品購入を表す画像、店舗内画像、支払い金額画像、手に取った商品の値札画像)のそれぞれから、その画像に現れる人の消費行動に基づいた属性(サイコグラフィック属性)を表す人属性データが抽出される。画像に現れた人の実際の消費行動が判明している場合には、そのその消費行動に基づいた人属性データが生成される。そして、その消費行動に基づいた人属性データは、各人について得られたライフスタイル属性に対応付けられるように、記憶装置13のビックデータ(データベース)に含められる。
記憶装置13にビックデータ(データベース)として格納された多数(複数)の画像から得られた前記人特徴データ及び人属性データは、情報処理装置12による制御のもと、人属性推定システム11に提供される。人属性推定システム11では、前述したように、多数の画像から得られた前記人特徴データ及び人属性データを学習データとして取得し(学習データ取得機能111)、モデル学習機能112によって、前記人特徴データ及び前記人属性データを用い、人特徴データで外見的特徴が表される人の属性についての深層学習(AI学習プロセス)が行われる。
情報処理装置12は、図3に示す手順に従って処理を行う。
店舗Es内の各所に設置されたカメラ装置21は、例えば、人感センサ等により撮影範囲に人が存在していることが認識されると、撮影を行い、その撮影により得られた画像を情報処理装置12(サーバ装置10)にインターネット100を介して送る。このとき、カメラ装置21は、日時を表すタイムスタンプ情報を前記画像とともに送る。
図3において、情報処理装置12は、前述したカメラ装置21での撮影にて得られる人の外見を表す画像を取得する(S121:エリア撮影画像取得手段)と、その画像を解析して(S212)、その画像に含まれる人の外見的特徴を表す人特徴データ(例えば、500項目の顔特徴量)を抽出する(S213:人特徴抽出手段)。情報処理装置12は、このように人特徴データを抽出すると、人属性推定システム11にアクセスして、人属性推定システム11の学習済みモデル113(図2参照)に前記人特徴データを提供する。この人特徴データの提供を受けた人属性推定システム11の学習済みモデル113は、提供された人特徴データから、所定のAI推定プロセスにより、前記画像に現れた人の属性を表す人属性データ(性別、年齢層、ライフスタイル属性等)を推定演算する。
人属性推定システム11(学習済みモデル113)での推定演算が終了すると、情報処理装置12は、前記推定演算により得られた人属性データを取得する(S216:推定人属性取得手段)。そして、情報処理装置12は、この人属性データを前記タイムスタンプ情報とともに、契約した店舗Esに対応付けて記憶装置13に格納する(S217)。情報処理装置12は、店舗Esに設置されたカメラ装置21から画像が送られてくる毎に、上述した一連の処理(図3参照)を実行する。
人属性データは、前述したように、性別、年齢層、ライフスタイル属性等を表し得る。例えば、女性についてのライフスタイル属性は、図4A、図4Bに示すように、
woman basic style (普通層)
woman lovemama (ママ層)
woman celeb career 40 (セレブ層 40代)
woman celeb career 30 (セレブ層 30代)
woman jyujitu single (独身充実)
などの複数の項目の数値の集合(多次元)として表される。図4A、図4Bに示すように、最も数値の大きい項目を、画像に現れた人の代表的なライフスタイル属性(普通層、独身充実層、セレブ層、ママ層)としてとらえることができる。
woman basic style (普通層)
woman lovemama (ママ層)
woman celeb career 40 (セレブ層 40代)
woman celeb career 30 (セレブ層 30代)
woman jyujitu single (独身充実)
などの複数の項目の数値の集合(多次元)として表される。図4A、図4Bに示すように、最も数値の大きい項目を、画像に現れた人の代表的なライフスタイル属性(普通層、独身充実層、セレブ層、ママ層)としてとらえることができる。
また、男性についてのライフスタイル属性は、例えば、図4Cに示すように、
man active senior (アクティブシニア層)
man suits (スーツ着層)
kireime casual (カジュアル層)
wild rich (ワイルドリッチ層)
active rich (アクティブリッチ層)
などの複数の項目の数値の集合(多次元)として表される。図4Cに示すように、最も数値の大きい項目を、画像に現れた人の代表的なライフスタイル属性(アクティブシニア層、スーツ着層、カジュアル層、アクティブリッチ層)としてとらえることができる。
man active senior (アクティブシニア層)
man suits (スーツ着層)
kireime casual (カジュアル層)
wild rich (ワイルドリッチ層)
active rich (アクティブリッチ層)
などの複数の項目の数値の集合(多次元)として表される。図4Cに示すように、最も数値の大きい項目を、画像に現れた人の代表的なライフスタイル属性(アクティブシニア層、スーツ着層、カジュアル層、アクティブリッチ層)としてとらえることができる。
また、前述したライフスタイル属性には、消費傾向(行動)に基づいた人属性データ(サイコグラフィック属性)が対応付けられており、ライフスタイル属性を知ることにより、対応する消費傾向に基づいた人属性を知ることができる。例えば、図4Aに示すように、女性・普通層のライフスタイル属性には、「家・インテリア・旅行・レジャー」等の消費傾向に基づいた人属性が対応づけられ、女性・独身充実層のライフスタイル属性には、「洋服・美容・雑貨・コスメ」等の消費傾向に基づいた人属性が対応付けられる。また、図4Bに示すように、女性・セレブ層のライフスタイル属性には、「アプリ・金融商品・流行ファッション・コスメ」等の消費傾向に基づいた人属性が対応付けられ、女性・ママ層のライフスタイル属性には、「お得情報・子供の教育・料理」等の消費傾向に基づいた人属性が対応付けられている。更に、図4Cに示すように、男性・アクティブシニア層のライフスタイル属性には、「旅行・レジャー・孫の教育」」等の消費傾向に基づいた人属性が対応付けられ、男性・ワイルドリッチ層のライフスタイル属性には、「金銭的に余裕・ものよりコトの中間」等の消費傾向に基づいた人属性が対応付けられている。
情報処理装置12は、前述したように取得した店舗Esに来店する人の人属性データを逐次、PC端末装置22にインターネット100を介して提供することができる。また、このとき、上述したライフスタイル属性に対応付けられた消費傾向に基づいた人属性を表すデータを提供すべき人属性データに含めることができる。この場合、PC端末装置22を操作する管理者または従業員は、店舗Esに来店する人の属性を逐次することができる。これにより、例えば、店舗Esの商品の配置や、商品の品ぞろえの更新等を適切にリアルタイムで行うことができる。
また、情報処理装置12は、上述したように取得した店舗Esに来店する人の人属性データの統計情報を生成して、PC端末装置22に提供することができる。
図5に示すように、情報処理装置12は、店舗Esに来店した多くの人について上述したように収集して記憶装置13に格納した人属性データ(性別、年齢層、ライフスタタイル属性等)をタイムタイムスタンプ情報とともに読み出す(S31)。そして、情報処理装置12は、読み出した人属性データを、所定の統計的演算手法に従って演算処理する(S32:人属性統計演算手段)。その結果、例えば、時間帯毎の来店客の年齢層、性別、ライフスタイル属性の分布を表す統計情報を得ることができる。情報処理装置12は、前記演算結果(統計情報)を提供情報としてセットし(S33)、その統計情報をPC端末装置22にインターネット100を介して提供する(S34)。上記統計演算では、上述したライフスタイル属性に対応付けられた消費傾向に基づいた人属性を表すデータを統計処理すべき人属性データに含めることができる。
上述したような統計演算結果をPC端末装置22に提供することにより、PC端末装置22を操作する管理者または従業員は、店舗Esに来店する人の属性(性別、年齢層、ライフスタイル属性等)の分布を知ることができる。その結果、例えば、時間帯ごとに店舗Esに展示する商品の種類を適切に調整することができる。
上述したような人属性推定システム11及び情報処理装置12によれば、店舗Esに設置されたカメラ装置21での撮影により得られた画像に現れる人の属性をAIの技術を用いて、推定するようにしているので、実際の店舗Es(実エリア)内における人の属性(性別、年齢層、ライフスタイル属性、サイコグラフィック属性)を推定することができる。その結果、その推定により得られた情報(人属性データ、人属性データの統計情報)を実際の店舗Esでの商品の販売戦略等に利用することができる。
なお、情報処理装置12は、画像解析により抽出した人特徴データ及び、それに対応した人属性推定システム11から取得した人属性データを、人属性推定システム11(学習データ取得機能111)に学習データとして提供する(学習情報提供手段)。これにより、人属性推定システム11での推定精度を向上させることができる。
また、情報処理装置12は、カメラ装置21での撮影で得られた画像の画像解析(S212)により、その画像に現れる人の行動を表す行動諜報を抽出する(図3におけるS124:エリア人行動画像解析手段・人行動取得手段)。具体的には、画像に現れる人が手にしている商品、画像に現れる人が眺めている商品棚等から推定される消費行動に係る行動情報が抽出される。この行動情報は、記憶装置13にビックデータとして格納される(S125)。そして、情報処理装置12は、その行動情報そのものを人属性データとともにPC端末装置22に提供することができる。また、情報処理装置12は、その行動情報を人属性データ(性別、年齢層、ライフスタイル属性等)とともに、消費傾向に基づいた人属性の更新のために利用する。
なお、前述した情報処理装置12は、人属性推定システム11にて属性推定された人の数をカウントすることにより、店舗Esへの来店者数をリアルタイムで人為的ミスをすることなく得ることができる。
また、カメラ装置21にて撮影され続ける時間を計測することにより、カメラ装置21の撮影範囲に対応するエリアに何人の客がどのくらい滞在したか等を表す情報を提供することができる。また、画像解析により、店舗Esへのリピータの分析や、LTV(ライフタイムバリュー:顧客生涯価値)の高い来店客の行動分析も行うことが可能である。
なお、人属性データは、前述した性別、年齢層、ライフスタイル属性、消費傾向に基づいた人属性(サイコグラフィック属性)に限定されず、人の外見を表す画像から抽出・推定できるその人の属性を表すものであれば特に限定されない。
人属性データと共に、人の行動に影響を与える情報、例えば、温度、湿度、天候に関する情報を情報処理装置12に提供することができる。この場合、情報処理装置12は、人属性データと共にそのような情報を加味して、店舗Esの営業戦略に有用な情報を生成することができる。
なお、人属性推定システム11と情報処理装置12は、1つのサーバ装置10内に構成されるものであったが、これに限定されず、人属性推定システム11と情報処理装置12は、別体として構成するようにしてもよい。この場合、情報処理装置12は、人属性推定システム11と有線または無線にて接続されてもよいし、インターネット100を介して接続されるものであってもよい。
なお、本発明は、前述した実施の形態に限定されるものではない。本発明の趣旨に基づいて種々変形することが可能であり、これらを本発明の範囲から除外するものではない。
本発明に係る人属性推定システムは、実エリア内における人の属性を推定することに利用することができ、また、本発明に係る情報処理装置及び情報処理方法は、上記人属性推定システムを利用して、実エリア内における人の属性を実際に推定することができるという効果を有し、本発明に係る人属性推定システム、それを利用する情報処理装置及び情報処理装置は、実エリアで行動する人の属性を推定するシステム、装置及び方法として有用である。
10 サーバ装置
11 人属性推定システム
12 情報処理装置
13 記憶装置
21 カメラ
22 PC端末装置
100 インターネット
11 人属性推定システム
12 情報処理装置
13 記憶装置
21 カメラ
22 PC端末装置
100 インターネット
Claims (7)
- 人の外見を表す画像から抽出される前記画像に現れる人の外見的特徴を表す人特徴情報を取得する人特徴取得手段と、
前記人特徴取得手段にて取得される人特徴情報で表される外見的特徴を有する人の属性を表す人属性情報を取得する人属性取得手段と、を備え、
複数の画像のそれぞれに現れる人について前記人特徴取得手段及び前記人属性取得手段にて取得される前記人特徴情報及び人属性情報を用い、所定のAI学習プロセスに従って、人特徴情報にて外見的特徴が表される人の属性を学習してなる人属性推定システムであって、
提供される人の外見的特徴を表す人特徴情報から、所定のAI推定プロセスに従って、前記人の属性を表す人属性情報を推定演算するAI推定演算部を有する人属性推定システム。 - 請求項1記載の人属性推定システムにアクセス可能な情報処理装置であって、
あるエリアの所定場所に設置された撮影装置での撮影により得られる人の外見を表す画像を取得するエリア撮影画像取得手段と、
前記撮影画像取得手段にて取得された画像を解析して、該画像に現れる人の外見的特徴を表す人特徴情報を抽出する人特徴抽出手段と、
前記人属性推定システムにアクセスして、前記人特徴抽出手段にて得られた前記人特徴情報から前記AI推定演算手段により推定演算される人属性情報を取得する推定人属性取得手段と、を有する情報処理装置。 - 前記エリア撮影画像取得手段にて取得される複数の画像に現れる複数の人について前記AI推定演算手段により推定演算された人属性情報を、所定の統計的演算手法に従って、演算処理して、前記エリア内に存在した人の属性についての統計情報を取得する、人属性統計演算手段を有する、請求項2記載の情報処理装置。
- 前記人特徴抽出手段にて得られる人特徴情報及び前記推定人属性取得手段にて取得される人属性情報を、学習情報として前記人属性推定システムに提供する学習情報提供手段を有する請求項2または3記載の情報処理装置。
- 前記撮影装置での撮影により得られた画像に現れる人の行動を表す行動情報を生成する人行動取得手段を有する請求項2乃至4のいずれかに記載の情報処理装置。
- 前記人行動取得手段は、
前記エリア撮影画像取得手段にて取得された画像を解析して、前記画像に現れる人の行動を表す行動情報を生成するエリア人行動画像解析手段を有する請求項5記載の情報処理装置。 - 請求項1記載の人属性推定システムにアクセス可能な情報処理装置における情報処理方法であって、
あるエリアの所定場所に設置された撮影装置での撮影により得られる人の外見を表す画像を取得するエリア撮影画像取得ステップと、
前記撮影画像取得ステップにて取得された画像から該画像に現れる人の外見的特徴を表す人特徴情報を抽出する人特徴抽出ステップと、
前記人属性推定システムにアクセスして、前記人特徴抽出ステップにて得られた前記人特徴情報から前記AI推定演算手段により推定演算される人属性情報を取得する推定人属性取得ステップと、を有する情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018198747A JP2020067720A (ja) | 2018-10-22 | 2018-10-22 | 人属性推定システム、それを利用する情報処理装置及び情報処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018198747A JP2020067720A (ja) | 2018-10-22 | 2018-10-22 | 人属性推定システム、それを利用する情報処理装置及び情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020067720A true JP2020067720A (ja) | 2020-04-30 |
Family
ID=70390356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018198747A Pending JP2020067720A (ja) | 2018-10-22 | 2018-10-22 | 人属性推定システム、それを利用する情報処理装置及び情報処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020067720A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021179770A (ja) * | 2020-05-13 | 2021-11-18 | Kddi株式会社 | 顧客情報から顧客のパーソナリティを推定する装置、プログラム及び方法 |
JPWO2021260754A1 (ja) * | 2020-06-22 | 2021-12-30 | ||
EP4336464A1 (en) | 2022-07-05 | 2024-03-13 | NEC Corporation | Image analysis apparatus, image analysis method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010033474A (ja) * | 2008-07-31 | 2010-02-12 | Omron Corp | 属性別人数集計装置、属性別人数集計方法、および属性別人数集計システム |
JP2013144001A (ja) * | 2012-01-13 | 2013-07-25 | Nec Corp | 物品陳列棚、人物行動調査方法および人物行動調査用プログラム |
JP2013242825A (ja) * | 2012-05-23 | 2013-12-05 | Panasonic Corp | 人物属性推定システム、及び学習用データ生成装置 |
-
2018
- 2018-10-22 JP JP2018198747A patent/JP2020067720A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010033474A (ja) * | 2008-07-31 | 2010-02-12 | Omron Corp | 属性別人数集計装置、属性別人数集計方法、および属性別人数集計システム |
JP2013144001A (ja) * | 2012-01-13 | 2013-07-25 | Nec Corp | 物品陳列棚、人物行動調査方法および人物行動調査用プログラム |
JP2013242825A (ja) * | 2012-05-23 | 2013-12-05 | Panasonic Corp | 人物属性推定システム、及び学習用データ生成装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021179770A (ja) * | 2020-05-13 | 2021-11-18 | Kddi株式会社 | 顧客情報から顧客のパーソナリティを推定する装置、プログラム及び方法 |
JP7307702B2 (ja) | 2020-05-13 | 2023-07-12 | Kddi株式会社 | 顧客情報から顧客のパーソナリティを推定する装置、プログラム及び方法 |
JPWO2021260754A1 (ja) * | 2020-06-22 | 2021-12-30 | ||
WO2021260754A1 (ja) * | 2020-06-22 | 2021-12-30 | 日本電気株式会社 | 照合装置、販売促進支援システム、照合方法及び非一時的なコンピュータ可読媒体 |
JP7375932B2 (ja) | 2020-06-22 | 2023-11-08 | 日本電気株式会社 | 照合装置、販売促進支援システム、照合方法及びプログラム |
EP4336464A1 (en) | 2022-07-05 | 2024-03-13 | NEC Corporation | Image analysis apparatus, image analysis method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108876526B (zh) | 商品推荐方法、装置和计算机可读存储介质 | |
JP6267861B2 (ja) | 対話型広告のための使用測定技法およびシステム | |
KR102664008B1 (ko) | 시각 정보에 기초한 고객 아이템 추천 방법 및 장치 | |
US10783528B2 (en) | Targeted marketing system and method | |
CN105718873B (zh) | 基于双目视觉的人流分析方法 | |
KR101649322B1 (ko) | 이미지에서 텍스트로 및 텍스트에서 이미지로 연관시키기 위한 시스템 및 방법 | |
WO2018168095A1 (ja) | 人物動向記録装置、人物動向記録方法、及びプログラム | |
CN107203897A (zh) | 一种产品推荐度的评价方法、装置及系统 | |
JP6807389B2 (ja) | メディアコンテンツのパフォーマンスの即時予測のための方法及び装置 | |
US11461630B1 (en) | Machine learning systems and methods for extracting user body shape from behavioral data | |
JP2020067720A (ja) | 人属性推定システム、それを利用する情報処理装置及び情報処理方法 | |
WO2021068781A1 (zh) | 一种疲劳状态识别方法、装置和设备 | |
JP7130991B2 (ja) | 広告表示システム、表示装置、広告出力装置、プログラム及び広告表示方法 | |
JP2021500659A (ja) | 自動化されたアトリビューションモデリングおよび測定 | |
CN115803673A (zh) | 用于选择眼镜架的方法和设备 | |
KR101738057B1 (ko) | 사회감성 네트워크 구축 시스템 및 그 방법 | |
WO2012135797A2 (en) | Targeted marketing system and method | |
KR102348276B1 (ko) | 빅 데이터 기반의 얼굴피부 건강 관리 서비스 제공 방법 및 시스템 | |
Gautam et al. | Perceptive advertising using standardised facial features | |
KR102400172B1 (ko) | 시선추적에 기초하여 상품을 추천하기 위한 방법 및 시스템 | |
CN109919740B (zh) | 一种生成购衣建议的方法及装置 | |
CN112150193A (zh) | 一种客群分析方法、系统及存储介质 | |
KR20220126909A (ko) | 인공지능 기반 맞춤형 퍼스널 컬러 진단에 따른 화장품 추천 시스템 | |
Kang et al. | Behavior analysis method for indoor environment based on app usage mining | |
WO2024018548A1 (ja) | 生成プログラム、生成方法および情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190821 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201009 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210409 |