JPWO2020059263A1 - 画像提案装置、画像提案方法及び画像提案プログラム - Google Patents

画像提案装置、画像提案方法及び画像提案プログラム Download PDF

Info

Publication number
JPWO2020059263A1
JPWO2020059263A1 JP2020548029A JP2020548029A JPWO2020059263A1 JP WO2020059263 A1 JPWO2020059263 A1 JP WO2020059263A1 JP 2020548029 A JP2020548029 A JP 2020548029A JP 2020548029 A JP2020548029 A JP 2020548029A JP WO2020059263 A1 JPWO2020059263 A1 JP WO2020059263A1
Authority
JP
Japan
Prior art keywords
image
user
room
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020548029A
Other languages
English (en)
Other versions
JP7148624B2 (ja
Inventor
林 伸治
和幸 板垣
喬俊 狩野
誠 大関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020059263A1 publication Critical patent/JPWO2020059263A1/ja
Application granted granted Critical
Publication of JP7148624B2 publication Critical patent/JP7148624B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/54Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract


ユーザの部屋にマッチし、かつユーザの好みが反映された画像をユーザに提案することができる画像提案装置、方法及びプログラムを提供する。ユーザが好む「部屋と画像」の組合せに関するデータを、ユーザごとに収集してデータ保存部(222)に保存する。生成部(211)は、ユーザごとに収集したデータを使用してユーザの好みが反映された「部屋と画像」の関係性を示す情報を生成する。画像選択部(212)は、ユーザにより撮影された部屋の画像(第2画像)(230)を取得すると、取得した第2画像と「部屋と画像」の関係性を示す情報とに基づいて、コンテンツDB(218)、ユーザ画像DBに登録された画像群からユーザの好みが反映された画像(第3画像)(240)を選択し、ユーザに提案する。これにより、ユーザの部屋に飾る画像としてユーザの部屋にマッチし、かつユーザの好みが反映された画像を提案できる。

Description


本発明は画像提案装置、画像提案方法及び画像提案プログラムに係り、特に部屋に飾る好適な画像をユーザに提案する技術に関する。

ユーザが自分の部屋に飾る画像プリントに使用する画像を選択する場合、その部屋の雰囲気にマッチした画像を選択する必要があるが、大量な画像群から現実的な時間内でユーザの好みが反映された画像を選択するのは難しいという問題がある。

特許文献1には、コンテンツの映像又は音声をテレビジョン受像機で視聴している間に、ユーザの生体情報をコンテンツごとに取得し、生体情報から高い評価を受けたコンテンツをユーザに推薦する情報処理端末が記載されている。

また、特許文献2には、購入検討商品を実際の部屋に配置した時の雰囲気又は調和性を確かめたり、部屋のサイズに適合するか否かを確かめながら商品を購入できるようにする商品販売装置が記載されている。

特許文献2に記載の商品販売装置は、商品を撮影した商品画像とユーザの部屋を撮影した部屋画像とを合成し、合成した画像を顧客に対して案内出力し、特に商品画像と部屋画像とを合成する際に、商品を設置する部屋のサイズと商品のサイズとの比率に応じて画像サイズを調整し、かつ、部屋を撮影した撮影方向に応じて商品画像を回転処理することによって商品画像の向きを部屋画像の撮影方向に調整して商品画像を部屋画像内に合成配置するようにしている。

これにより、ユーザは、購入検討商品を実際の部屋に配置した時の雰囲気又は調和性を確かめたり、部屋のサイズに適合するか否かを確かめながら商品を購入することができる。

特開2009−134671号公報 特開2004−318359号公報

特許文献1に記載の発明は、ユーザの生体情報に基づいてユーザから高い評価を受けたコンテンツを認識し、そのコンテンツをユーザに推薦するものの、ユーザの部屋にマッチした画像を推薦するものではない。

一方、特許文献2に記載の発明は、ユーザの部屋の画像を取得し、その部屋の画像に商品の画像を合成することにより、部屋に合った(部屋のサイズに合った)商品を提案するものであり、ユーザの部屋にマッチしたユーザの好みが反映された画像を提案するものではない。

本発明はこのような事情に鑑みてなされ、ユーザの部屋にマッチし、かつユーザの好みが反映された画像をユーザに提案することができる画像提案装置、画像提案方法及び画像提案プログラムを提供することを目的とする。

上記目的を達成するために本発明の一の態様に係る画像提案装置は、ユーザごとに収集される第1部屋と第1画像との組合せに関するデータであって、ユーザが好む組合せに関するデータを収集して保存するデータ保存部と、データ保存部に保存されたユーザに対応するデータを使用し、ユーザの好みが反映された第1部屋と第1画像との関係性を示す情報を生成する生成部と、ユーザにより撮影された第2部屋の画像である第2画像を取得する画像取得部と、画像取得部により取得した第2画像と生成部により生成された関係性を示す情報とに基づいて、登録された画像群又はユーザが所有する画像群からユーザの好みが反映された画像である第3画像を選択する画像選択部と、ユーザの第2部屋に飾る画像プリントに対応する画像として、画像選択部により選択された第3画像をユーザに提案する提案部と、を備える。

本発明の一の態様によれば、ユーザが好む「部屋と画像」の組合せに関するデータを収集し、収集したデータを使用してユーザの好みが反映された「部屋と画像」の関係性を示す情報を生成する。そして、ユーザにより撮影された部屋の画像(第2画像)を取得すると、取得した第2画像と「部屋と画像」の関係性を示す情報とに基づいて、登録された画像群又はユーザが所有する画像群からユーザの好みが反映された画像(第3画像)を選択し、ユーザに提案する。これにより、ユーザの部屋に飾る画像としてユーザの部屋にマッチし、かつユーザの好みが反映された画像を提案できる。

本発明の他の態様に係る画像提案装置において、ユーザの生体情報を取得する生体情報取得部と、画像の閲覧が可能な画像閲覧部とを備え、データ保存部は、ユーザによる画像閲覧部を使用した画像の閲覧中に画像閲覧部に第1画像が飾られた第1部屋の画像である第4画像が出現したときに、生体情報取得部から取得したユーザの生体情報に基づいてユーザの好みが反映された第4画像を取得し、取得した第4画像からユーザが好む組合せに関するデータを収集することが好ましい。これにより、ユーザの好みの「部屋と画像」の組合せに関する情報を自動的に収集することができる。

本発明の更に他の態様に係る画像提案装置において、生体情報取得部は、ユーザに装着されるウェアラブル端末であり、画像閲覧部は、ネットワークを通じて閲覧する画像を取得し、取得した画像を表示部に表示し、かつウェアラブル端末と通信してユーザの生体情報を取得する携帯端末であり、データ保存部は、携帯端末からユーザの好みが反映された第4画像を取得することが好ましい。

本発明の更に他の態様に係る画像提案装置において、第2画像と生成部により生成された関係性を示す情報とに基づいて、第2部屋にマッチした第5画像を生成する画像生成部を備え、画像選択部は、登録された画像群又はユーザが所有する画像群から生成された第5画像と類似する1又は複数の画像を第3画像として選択することが好ましい。

本発明の更に他の態様に係る画像提案装置において、画像選択部は、第2画像と生成部により生成された関係性を示す情報とに基づいて、第2部屋にマッチした第5画像の特徴を示す特徴量を抽出し、登録された画像群又はユーザが所有する画像群から抽出した特徴量と類似する特徴量を有する1又は複数の画像を第3画像として選択することが好ましい。

本発明の更に他の態様に係る画像提案装置において、生成部は、データ保存部に保存されたユーザに対応するデータを学習データとして機械学習させた認識器であり、画像選択部は、画像取得部により取得した第2画像を認識器の入力画像として入力し、認識器から出力される認識結果に基づいて、登録された画像群又はユーザが所有する画像群から認識結果と類似する1又は複数の画像を第3画像として選択することが好ましい。

本発明の更に他の態様に係る画像提案装置において、画像選択部は、認識器から出力される認識結果の特徴を示す特徴量を抽出し、登録された画像群又はユーザが所有する画像群から抽出した特徴量と類似する特徴量を有する1又は複数の画像を第3画像として選択することが好ましい。

本発明の更に他の態様に係る画像提案装置において、生成部は、データ保存部に保存されたデータのうちの、第1ユーザと属性の類似する第2ユーザのデータをユーザに対応するデータとして使用し、ユーザの好みが反映された第1部屋と第1画像との関係性を示す情報を生成することが好ましい。

本発明の更に他の態様に係る画像提案装置において、提案部は、ユーザの好みが反映された上位の複数の第3画像を提案することが好ましい。

本発明の更に他の態様に係る画像提案装置において、提案部は、画像取得部により取得した第2画像の壁領域に選択された第3画像を合成し、合成した第5画像をユーザに提示することが好ましい。

更に他の態様に係る画像提案方法は、ユーザごとに収集される第1部屋と第1画像との組合せに関するデータであって、ユーザが好む組合せに関するデータを収集してデータ保存部に保存するステップと、データ保存部に保存されたユーザに対応するデータを使用し、ユーザの好みが反映された第1部屋と第1画像との関係性を示す情報を生成するステップと、ユーザにより撮影された第2部屋の画像である第2画像を取得するステップと、取得した第2画像と生成された関係性を示す情報とに基づいて、登録された画像群又はユーザが所有する画像群からユーザの好みが反映された画像である第3画像を選択するステップと、ユーザの第2部屋に飾る画像プリントに対応する画像として、選択された第3画像をユーザに提案するステップと、を含む。

更に他の態様に係る画像提案プログラムは、ユーザごとに収集される第1部屋と第1画像との組合せに関するデータであって、ユーザが好む組合せに関するデータを収集してデータ保存部に保存する機能と、データ保存部に保存されたユーザに対応するデータを使用し、ユーザの好みが反映された第1部屋と第1画像との関係性を示す情報を生成する機能と、ユーザにより撮影された第2部屋の画像である第2画像を取得する機能と、取得した第2画像と生成された関係性を示す情報とに基づいて、登録された画像群又はユーザが所有する画像群からユーザの好みが反映された画像である第3画像を選択する機能と、ユーザの第2部屋に飾る画像プリントに対応する画像として、選択された第3画像をユーザに提案する機能と、をコンピュータにより実現させる。

本発明によれば、ユーザの部屋に飾る画像として、ユーザの部屋にマッチし、かつユーザの好みが反映された画像をユーザに提案することができる。

図1は、本発明の一態様に係る画像提案装置を含むシステムを示すシステム構成図である。 図2は、本発明の一態様に係る画像提案装置200の実施形態を示すブロック図である。 図3は、データ保存部222に保存された「部屋と画像の組合せ」データの一例である。 図4は、ユーザの部屋の画像230の一例を示す図である。 図5は、図1に示したユーザ端末10の外観を示す図である。 図6は、図5に示したスマートフォン100の構成を示すブロック図である。 図7は、図5に示したウェアラブル端末1の構成を示すブロック図である。 図8は、図1及び2に示した画像提案装置200の第1実施形態を示すブロック図である。 図9は、図8に示した生成部211の実施形態を示す機能ブロック図である。 図10は、画像提案装置200により提案された画像を表示するスマートフォン100の表示画面の一例を示す図である。 図11は、図1及び2に示した画像提案装置200の第2実施形態を示すブロック図である。 図12は、画像提案装置200により提案された画像を表示するスマートフォン100の表示画面の他の例を示す図である。 図13は、本発明の一態様に係る画像提案方法の実施形態を示すフローチャートである。

以下、添付図面に従って本発明の一態様に係る画像提案装置、画像提案方法及び画像提案プログラムの好ましい実施形態について説明する。

[画像提案装置の構成]

図1は、本発明の一態様に係る画像提案装置を含むシステムを示すシステム構成図である。

図1に示すシステムは、ユーザ毎のユーザ端末10と、画像提案装置200とから構成され、各ユーザ端末10と画像提案装置200とは、ネットワーク(インターネット)3を介して通信可能になっている。

ネットワーク3に接続されている各ウェブサイト4は、ウェブページにおいて画像等のコンテンツを公開しており、ユーザは、ユーザ端末10のウェブブラウザによりコンテンツを閲覧したり、利用することができる。各ウェブサイト4は、既存のウェブサイトでもよいし、後述する画像提案装置200が提供するサービスのために作成されたウェブサイトを含んでいてもよい。

ユーザ端末10は、ネットワーク3を通じてウェブサイト4が公開しているコンテンツ(本例では、画像)を閲覧する画像閲覧部として機能し、かつ、ユーザに装着されるウェアラブル端末1及び2との通信(例えば、近距離無線通信)を通じてユーザ自身の生体情報を取得する機能を有し、特にユーザの好む「部屋と画像の組合せ」データを取得するデータ取得部として機能する。ここで、「部屋と画像の組合せ」データとは、部屋(リビング、ダイニング、寝室、書斎、玄関等を含む)と、その部屋(部屋の壁)に飾られる画像(写真)との組合せであって、ユーザが好む「部屋と画像の組合せ」に関するデータであり、例えば、写真が飾られた部屋の画像データを含む。ここで「部屋」とは、少なくとも床、天井、及び1面以上の壁により画される空間のことをいう。主には床、天井、及び4面を囲まれた空間を指すが、ガレージのように、4面のうちのいくつかの面が無く、開放されているような空間を含んでもよい。

ユーザ端末10は、生体情報を計測する生体情報センサを内蔵したリストバンド型のウェアラブル端末1、あるいは指輪型のウェアラブル端末2と、ウェアラブル端末1及び2と通信するウェアラブル端末1及び2の所有者の携帯端末(本例では、スマートフォン100)とから構成されている。

ウェアラブル端末1及び2は、生体情報センサとして機能する心拍センサ、体温計、加速度センサ等を内蔵し、これらのセンサにより心拍数、体温、加速度を計測し、かつ、これらの計測結果に基づいて運動状態、身体の姿勢、消費カロリー、歩数、睡眠時間、心的状態(リラックス、ストレス、興奮等)などを算出(解析)する。ウェアラブル端末1により計測された生体情報(解析結果を含む)は、ウェアラブル端末1の内部メモリに保存管理され、又はモニタに表示できるようになっている。

また、ウェアラブル端末1及び2は、ウェアラブル端末1及び2に対応したアプリケーションがインストールされたスマートフォン100と連携し、スマートフォン100との間で生体情報を含む種々の情報のやり取りを行うことができる。

スマートフォン100は、ウェアラブル端末1及び2に対応したアプリケーションソフトウェアがインストールされ、このアプリケーションソフトウェアが実行されることによりウェアラブル端末1及び2との間で通信し、ウェアラブル端末1及び2からの生体情報の取得、取得した生体情報の保存管理、及び生体情報の確認用のモニタ出力等を行う。

尚、生体情報を取得するウェアラブル端末は、リストバンド型のウェアラブル端末1、指輪型のウェアラブル端末2に限らず、例えば、眼鏡型、着衣型、ペンダント型及びヘルメット型等の種々のウェアラブル端末が考えられる。

眼鏡型のウェアラブル端末の場合、撮像部、ディスプレイ、加速度センサ、脳波センサ、眼電位センサ等を備え、脳波の計測、まばたき、視線方向、視線移動、体の動きなどの生体情報を計測する機能を有し、計測データその他必要な情報を眼鏡に仕込んだディスプレイに表示することができる。

図2は、本発明の一態様に係る画像提案装置200の実施形態を示すブロック図である。

図2に示す画像提案装置200は、例えば、ユーザ端末10であるスマートフォン100に対するサーバとして機能し、主として通信部210、部屋と画像との関係性を示す情報(「部屋と画像」の関係性情報)を生成する生成部211、画像選択部212、画像処理部214、コンテンツDB(DB:Database)218、ユーザ画像DB220、及びデータ保存部222から構成されている。

画像提案装置200の各種制御を実行するハードウェア的な構造は、次に示すようなコンピュータの各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム(画像提案プログラムを含む))を実行して各種の制御部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の制御部を1つのプロセッサで構成してもよい。複数の制御部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の制御部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の制御部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の制御部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。

通信部210は、ネットワーク3を通じてカメラ付きのユーザ端末(本例では、スマートフォン100)との間で必要な情報の送受信を行う部分である。

通信部210は、スマートフォン100が取得した「部屋と画像の組合せ」データを受信する。受信した「部屋と画像の組合せ」データは、データ保存部222にユーザ別に保存される。尚、スマートフォン100による「部屋と画像の組合せ」データの取得方法の詳細については後述する。

データ保存部222は、スマートフォン100によりユーザごとに収集された「部屋と画像の組合せ」データをユーザごとに保存する。

図3は、データ保存部222に保存された「部屋と画像の組合せ」データの一例である。本例の「部屋と画像の組合せ」データa,b,c,…は、それぞれ写真(第1画像)が飾られた部屋(第1部屋)の画像(第4画像)であり、ユーザがウェブサイト4の閲覧中にスマートフォン100によりウェブサイト4から取得した部屋の画像である。

また、通信部210は、スマートフォン100により撮影されたユーザの部屋(第2部屋)の画像である第2画像を取得(受信)する画像取得部として機能する。

図4は、ユーザの部屋の画像230の一例を示す図である。尚、画像230は、静止画でもよいし、画像プリントを飾る部屋を撮影した動画でもよい。画像230が動画の場合、後の工程においては、公知の手段により互いに重なりのない(あるいは互いに重なりの少ない)複数の静止画へと分割し、複数の静止画の画像が入力された画像と取り扱えばよい。

更に、通信部210は、ユーザの部屋に飾る画像プリントに対応する画像(第3画像)をユーザに提案するためにスマートフォン100に送信する。

図2に戻って、コンテンツDB218には、部屋(部屋の壁)に飾られる画像プリント用の多数の画像(画像群)が予め登録されている。ここに登録されている画像群は、例えば、プロカメラマンにより撮影された画像群である。

ユーザ画像DB220には、各ユーザにより撮影されたユーザが所有する画像群が登録され、ユーザごとに管理されている。尚、ユーザ画像DB220には、スマートフォン100から通信部210を介してユーザが所有する画像群を登録することができる。また、ユーザ所有のメモリカード(記録媒体)に記録されている画像群を、カードリーダ等により読み出して登録することができる。なお、ユーザが所有する画像群には、ユーザ以外が撮影した画像であってユーザに送付された画像、及び、インターネット上で保存されユーザがいつでもアクセスできる権限を有する画像なども含んでよい。

コンテンツDB218及びユーザ画像DB220は、画像提案装置200に内蔵されているものに限らず、LAN(Local Area Network)等により接続され、適宜アクセスできるものでもよい。

生成部211は、データ保存部222に保存されたユーザに対応するデータを使用し、ユーザの好みが反映された「部屋と画像」の関係性情報を生成する部分である。

画像選択部212は、通信部210を介して取得したユーザの部屋の画像230(図4)と、生成部211により生成された「部屋と画像」の関係性情報とに基づいて、コンテンツDB218に登録された画像群、又はユーザ画像DB220に登録されたユーザが所有する画像群からユーザの好みが反映された画像(第3画像)を選択する。第3画像は、1枚でもよいし、複数枚でもよい。

尚、生成部211及び画像選択部212の詳細については後述する。

画像処理部214及び通信部210は、ユーザの部屋に飾る画像プリントに対応する画像(第3画像)として、画像選択部212により選択された第3画像を提案する提案部として機能し、画像処理部214は、画像選択部212により選択された第3画像を処理する部分であり、選択された第3画像からスマートフォン100の表示部に表示させる第3画像を含む画像(表示用画像)を生成し、通信部210は画像処理部214により生成された表示用画像をスマートフォン100に送信する。

<「部屋と画像の組合せ」データの収集>

図5は、図1に示したユーザ端末10の外観を示す図である。

図5に示すユーザ端末10は、ウェアラブル端末1とスマートフォン100とから構成されている。

スマートフォン100は、ウェアラブル端末1に対応するアプリケーションソフトウェアを起動することにより、ウェアラブル端末1が計測及び解析した生体情報を無線通信によりウェアラブル端末1から生体情報を取得する。

また、スマートフォン100は、ユーザによるウェブサイト4が提供するコンテンツの閲覧時に、スマートフォン100内で常時動作するプログラム(「部屋と画像の組合せ」データを取得するためのプログラム)によって、「部屋と画像の組合せ」画像が出現すると、その「部屋と画像の組合せ」画像を検知する。その際、ウェアラブル端末1から取得した生体情報を解析して得られる喜怒哀楽などの感情(ユーザの生体情報と相関が高いユーザの感情)が、ポジティブな方向へ変化すると、そのときの閲覧画像(+生体情報)を、ユーザが好む「部屋と画像の組合せ」データ(+生体情報)として取得する。

[スマートフォン100]

図5に示すスマートフォン100は、平板状の筐体102を有し、筐体102の一方の面に表示部としての表示パネル121と、入力部としての操作パネル122とが一体となった表示入力部120を備えている。また、筐体102は、スピーカ131と、マイクロホン132と、操作部140と、カメラ部141とを備えている。尚、筐体102の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用することや、折り畳み構造やスライド機構を有する構成を採用することもできる。

図6は、図5に示したスマートフォン100の構成を示すブロック図である。図6に示すように、スマートフォン100の主たる構成要素として、無線通信部110と、表示入力部120と、通話部130と、操作部140と、撮像部として機能するカメラ部141と、記憶部150と、外部入出力部160と、GPS(Global Positioning System)受信部170と、モーションセンサ部180と、電源部190と、主制御部101とを備える。また、スマートフォン100の主たる機能として、基地局装置と移動通信網とを介した移動無線通信を行う無線通信機能を備える。

無線通信部110は、主制御部101の指示に従って、移動通信網に収容された基地局装置に対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。

表示入力部120は、主制御部101の制御により、画像(静止画及び動画)や文字情報などを表示して視覚的にユーザに情報を伝達し、かつ、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル121と、操作パネル122とを備える。生成された3次元画像を鑑賞する場合には、表示パネル121は、3次元表示パネルであることが好ましい。

表示パネル121は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。

操作パネル122は、表示パネル121の表示面上に表示される画像を視認可能に載置され、ユーザの指やタッチペンによって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指やタッチペンによって操作すると、操作に起因して発生する検出信号を主制御部101に出力する。次いで、主制御部101は、受信した検出信号に基づいて、表示パネル121上の操作位置(座標)を検出する。

図5に示すように、スマートフォン100の表示パネル121と操作パネル122とは一体となって表示入力部120を構成しているが、操作パネル122が表示パネル121を完全に覆うような配置となっている。この配置を採用した場合、操作パネル122は、表示パネル121外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル122は、表示パネル121に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル121に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。

尚、表示領域の大きさと表示パネル121の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要はない。また、操作パネル122が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体102の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル122で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。

通話部130は、スピーカ131やマイクロホン132を備え、マイクロホン132を通じて入力されたユーザの音声を主制御部101にて処理可能な音声データに変換して主制御部101に出力したり、無線通信部110あるいは外部入出力部160により受信された音声データを復号してスピーカ131から出力するものである。また、図5に示すように、例えば、スピーカ131及びマイクロホン132を表示入力部120が設けられた面と同じ面に搭載することができる。

操作部140は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、操作部140は、スマートフォン100の筐体102の表示部の下部、下側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。

記憶部150は、主制御部101の制御プログラムや制御データ、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部150は、スマートフォン内蔵の内部記憶部151と着脱可能な外部メモリスロットを有する外部記憶部152により構成される。尚、記憶部150を構成するそれぞれの内部記憶部151と外部記憶部152は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、Micro SD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。

外部入出力部160は、スマートフォン100に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバスなど)又はネットワーク(例えば、インターネット、無線LAN(Local Area Network)、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。

スマートフォン100に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続される携帯情報端末、イヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン100の内部の各構成要素に伝達することや、スマートフォン100の内部のデータが外部機器に伝送されるようにすることができる。本例では、外部入出力部160は、ウェアラブル端末1及び2との間でブルートゥース等の近距離無線通信を行い、生体情報を取得する生体情報取得部として機能する。

GPS受信部170は、主制御部101の指示に従って、GPS衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン100の緯度、経度、高度からなる位置情報(GPS情報)を検出する。GPS受信部170は、無線通信部110や外部入出力部160(例えば、無線LAN)から位置情報を取得できるときには、その位置情報を用いて位置を検出することもできる。

モーションセンサ部180は、例えば、3軸の加速度センサなどを備え、主制御部101の指示に従って、スマートフォン100の物理的な動きを検出する。スマートフォン100の物理的な動きを検出することにより、スマートフォン100の動く方向や加速度が検出される。この検出結果は、主制御部101に出力されるものである。

電源部190は、主制御部101の指示に従って、スマートフォン100の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。

主制御部101は、マイクロプロセッサを備え、記憶部150が記憶する制御プログラムや制御データに従って動作し、スマートフォン100の各部を統括して制御するものである。また、主制御部101は、無線通信部110を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。

アプリケーション処理機能は、記憶部150が記憶するアプリケーションソフトウェアに従って主制御部101が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部160を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などの他に、ウェアラブル端末1の専用のアプリケーションソフトウェアによりウェアラブル端末1から生体情報を自動取得する機能、及び「部屋と画像の組合せ」データを取得するためのプログラムにより、「部屋と画像の組合せ」データを取得する機能などがある。

また、主制御部101は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画や動画のデータ)に基づいて、映像を表示入力部120に表示する等の画像処理機能を備える。画像処理機能とは、主制御部101が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部120に表示する機能のことをいう。

更に、主制御部101は、表示パネル121に対する表示制御と、操作部140、操作パネル122を通じたユーザ操作を検出する操作検出制御を実行する。

表示制御の実行により、主制御部101は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示し、あるいは電子メールを作成するためのウィンドウを表示する。尚、スクロールバーとは、表示パネル121の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。

また、操作検出制御の実行により、主制御部101は、操作部140を通じたユーザ操作を検出したり、操作パネル122を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。

更に、操作検出制御の実行により主制御部101は、操作パネル122に対する操作位置が、表示パネル121に重なる重畳部分(表示領域)か、それ以外の表示パネル121に重ならない外縁部分(非表示領域)かを判定し、操作パネル122の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。

また、主制御部101は、操作パネル122に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。

カメラ部141は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などのイメージセンサを用いて電子撮像する撮像装置である。

また、カメラ部141は、主制御部101の制御により、撮像によって得た可視光の画像データを、例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、記憶部150に記録したり、外部入出力部160や無線通信部110を通じて出力することができ、同様に被写体の距離を示す距離画像を記憶部150に記録したり、外部入出力部160や無線通信部110を通じて出力することができる。図2に示すようにスマートフォン100において、カメラ部141は表示入力部120と同じ面に搭載されているが、カメラ部141の搭載位置はこれに限らず、表示入力部120の背面に搭載されてもよいし、あるいは、複数のカメラ部141が搭載されてもよい。尚、複数のカメラ部141が搭載されている場合には、撮像に供するカメラ部141を切り替えて単独にて撮像したり、あるいは、複数のカメラ部141を同時に使用して撮像することもできる。

また、カメラ部141はスマートフォン100の各種機能に利用することができる。例えば、表示パネル121にカメラ部141で取得した画像を表示することや、操作パネル122の操作入力のひとつとして、カメラ部141の画像を利用することができる。また、GPS受信部170が位置を検出する際に、カメラ部141からの画像を参照して位置を検出することもできる。更には、カメラ部141からの画像を参照して、3軸の加速度センサを用いずに、あるいは、3軸の加速度センサと併用して、スマートフォン100のカメラ部141の光軸方向を判断することや、現在の使用環境を判断することもできる。

勿論、カメラ部141からの画像をアプリケーションソフトウェア内で利用することもできる。

[ウェアラブル端末1]

図5に示すウェアラブル端末1は、ユーザの手首に装着されるリストバンド型のウェアラブル端末であり、ユーザの生体情報を検出することができる。

生体情報とは、生体から計測可能な情報であり、典型的には、心拍数、脈拍、血圧、体温、呼吸数、発汗量、脳波パターンなどのバイタルサインが含まれ、また、これらの計測結果を解析して得られる喜怒哀楽などの感情、姿勢(寝た姿勢、立った姿勢、座った姿勢、歩行姿勢、走行姿勢等)、運動量、歩数、カロリー消費量又は睡眠時間が含まれてもよい。

図7は、図5に示したウェアラブル端末1の構成を示すブロック図である。

図5及び図7に示すウェアラブル端末1は、ユーザの生体情報の計測結果等の各種情報を表示可能な画面の一例である表示画面21(例えば、LCD、OELD等)を有する表示部20と、表示部20の表示画面21上でのタッチ操作の位置であるタッチ位置を検出可能なタッチセンサ22と、ユーザの指紋を検出可能な検出部の一例である指紋センサ23と、ウェアラブル端末1本体の側面に設けられ、かつウェアラブル端末1に対して各種操作を入力可能な操作ボタン24と、コントローラ25と、記憶部26と、生体情報センサ27と、通信部28とを有している。本実施形態では、表示部20及びタッチセンサ22は、所謂タッチパネルディスプレイとして機能する。

コントローラ25は、CPU(Central Processing Unit)等により構成され、記憶部26に記憶されたプログラムを実行することにより、ウェアラブル端末1が備える各部を制御する。記憶部26は、ROM及びRAM等により構成され、コントローラ25が実行するプログラム、コントローラ25がプログラムを実行する際に使用するデータ等の各種情報を記憶可能である。

生体情報センサ27は、心拍センサ、体温計、加速度センサ等を含み、ウェアラブル端末1を装着したユーザの生体情報(例えば、心拍数、体温、運動状態等)を計測する。通信部28は、無線通信によってスマートフォン100等の外部機器と通信可能である。

[画像提案装置の第1実施形態]

図8は、図1及び2に示した画像提案装置200の第1実施形態を示すブロック図である。

ユーザは、スマートフォン100により自分の部屋(第2部屋)を撮影し、撮影した部屋の画像(第2画像)230をネットワーク3を介して画像提案装置200に送信する(図1)。

図8において、画像選択部212は、画像提案装置200の通信部210(図2)により受信した部屋の画像230を入力する。

生成部211は、データ保存部222に保存された「部屋と画像の組合せ」データのうち、部屋の画像230を送信したユーザに対応する「部屋と画像の組合せ」データを使用し、そのユーザの好みが反映された「部屋と画像」の関係性情報を生成し、生成した「部屋と画像」の関係性情報を画像選択部212に出力する。尚、生成部211は、事前(部屋の画像230を受信するタイミングとは異なるタイミング)に、「部屋と画像の組合せ」データを使用し、機械学習手法により「部屋と画像」の関係性情報を生成しておくことが好ましい。

図9は、図8に示した生成部211の実施形態を示す機能ブロック図である。

図9に示す生成部211は、主として畳み込みニューラルネットワーク(CNN:Convolution Neural Network)232と、損失値算出部234と、パラメータ制御部236とから構成される。

CNN232は、複数のレイヤ構造を有し、複数の重みパラメータを保持している。CNN232は、重みパラメータが初期値から最適値に更新されることにより、未学習モデルから学習済みモデルに変化しうる。

このCNN232は、入力層232Aと、畳み込み層とプーリング層から構成された複数セットを有する中間層232Bと、出力層232Cとを備え、各層は複数の「ノード」が「エッジ」で結ばれる構造となっている。

入力層232Aには、データ保存部222に保存された「部屋と画像の組合せ」データである、第1部屋の画像(第4画像)250(図3)が入力される。

中間層232Bは、畳み込み層とプーリング層とを1セットとする複数セットを有し、入力層232Aから入力した画像250から特徴を抽出する部分である。畳み込み層は、前の層で近くにあるノードにフィルタ処理し(フィルタを使用した畳み込み演算を行い)、「特徴マップ」を取得する。プーリング層は、畳み込み層から出力された特徴マップを縮小して新たな特徴マップとする。「畳み込み層」は、画像からのエッジ抽出等の特徴抽出の役割を担い、「プーリング層」は抽出された特徴が、平行移動などによる影響を受けないようにロバスト性を与える役割を担う。尚、中間層232Bには、畳み込み層とプーリング層とを1セットとする場合に限らず、畳み込み層が連続する場合や正規化層も含まれる。

学習前のCNN232の各畳み込み層に適用されるフィルタの係数やオフセット値における次の層との接続の重みは、任意の初期値がセットされるが、画像の分類等に使用されるCNNのパラメータを初期値としてセットすることが好ましい。

損失値算出部234は、CNN232の出力層232Cの出力(特徴マップ)と、訓練データ(教師データともいう)としての画像(第1画像)250Aとを取得し、両者間の損失値を算出する。損失値の算出方法は、例えばソフトマックスクロスエントロピー、シグモイドなどが考えられる。ここで、訓練データとしての画像250Aは、部屋の画像250に含まれる画像であって、部屋に飾られている画像であり、画像250から切り出された画像に対応する。

パラメータ制御部236は、損失値算出部234により算出された損失値を元に、誤差逆伝播法によりCNN232の重みパラメータを調整する。

このようにして学習した学習済みのCNN232のパラメータは、「部屋と画像」の関係性情報となる。

画像選択部212は、通信部210を介して取得したユーザの部屋の画像230(図4)と、生成部211により生成された「部屋と画像」の関係性情報とに基づいて、コンテンツDB218に登録された画像群、又はユーザ画像DB220に登録されたユーザが所有する画像群からユーザの好みが反映された画像(第3画像)240を選択する。

これにより、ユーザの部屋に飾る画像として、ユーザの部屋にマッチし、かつユーザの好みが反映された画像240を選択することができる。尚、コンテンツDB218に登録された画像群から画像240を選択するか、又はユーザ画像DB220に登録された画像群から画像240を選択するかは、ユーザが指定できるようにしてもよいし、両画像群からそれぞれ画像240を選択するようにしてもよい。

尚、図9に示す生成部211は、データ保存部222に保存された「部屋と画像の組合せ」データとして、スマートフォン100でウェブサイト4の閲覧中にウェブサイト4から取得した部屋の画像250を使用し、画像250とその画像250に含まれる部屋に飾られている画像(第1画像)250Aとを学習データとして使用し、「部屋と画像」の関係性情報に相当するCNN232のパラメータを取得するが、データ保存部222に「部屋と画像の組合せ」データとして、部屋の画像250と画像250Aとの特徴量のペアを保存し、特徴量のペアを元に機械学習を行って「部屋と画像」の関係性情報を取得するようにしてもよい。

画像処理部214(図2)は、画像選択部212により選択された画像240を元に、画像240を含む表示用画像を生成する。画像提案装置200は、通信部210及びネットワーク3を介して表示用画像をユーザのスマートフォン100に送信する。

図10は、画像提案装置200により提案された画像を表示するスマートフォン100の表示画面の一例を示す図である。

図10に示すスマートフォン100の表示画面には、画像提案装置200から受信した表示用画像に基づいて、画像選択部212により選択された画像240を含む画像240−1が表示される。これにより、ユーザの部屋に飾る画像プリントに対応する画像240がユーザに提案される。

図10に示す例では、画像選択部212によりユーザの部屋にマッチし、かつユーザの好みが反映された画像として、適合度の高い上位の3枚の画像(No.1、No.2及びNo.3)が選択され、3枚の画像のサムネイル画像と、No.1のサムネイル画像に対応する本画像である画像240とが、表示画面に表示されて場合に関して示している。

ユーザは、画像240以外の画像の詳細を確認したい場合には、例えば、No.2、又はNo.3のサムネイル画像を選択することにより、画像240に代えてサムネイル画像に対応する本画像を表示させることができる。

また、表示画面には、「注文画面へ」のアイコンボタンが表示されており、ユーザは、このアイコンボタンを操作することにより、表示画面に拡大表示されている画像に対応する写真プリントを注文する画面に遷移させることができる。

これにより、画像提案装置200は、ユーザの部屋にマッチし、かつユーザの好みが反映された画像をユーザに提案することができる。

尚、図10に示す例では、適合度の高い上位の3枚の画像プリントに対応する3枚の画像からユーザが所望の画像を選択できるようにしたが、提示される画像の枚数はこれに限定されない。また、適合度の最も高い画像のみを提案するようにしてもよい。この場合、提案された画像が気に入らない場合にも対応できるように、ユーザからの指示入力により別の画像(例えば、次に適合度の高い画像など)の提案を要求できることが好ましい。

また、複数の画像を提案する際、ユーザの生体情報を元にユーザの好みの順番を推測し、提案する順番を決定してもよい。

[画像提案装置の第2実施形態]

図11は、図1及び2に示した画像提案装置200の第2実施形態を示すブロック図である。尚、図11において、図8に示した画像提案装置200の第1実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。

図11に示す画像提案装置200の第2実施形態は、主として生成部211−2及び画像生成部213を有する点で、第1実施形態と相違する。

生成部211−2は、図9に示した生成部211に相当し、特に学習済みのCNN232(認識器)に対応する。学習済みのCNN232は、部屋の画像の特徴量からその部屋に飾る画像の特徴量であって、その部屋にマッチし、かつユーザの好みが反映された画像の特徴量を示す認識結果(特徴マップ)を出力することができる。

したがって、生成部211−2の入力画像として、ユーザの部屋の画像230を入力すると、ユーザの部屋にマッチし、ユーザの好みが反映された画像の特徴量を示す特徴マップを出力する。

画像生成部213は、例えば、逆畳み込みニューラルネットワークで構成され、生成部211−2により生成された特徴量空間の特徴マップを画像空間へ変換し、画像230が示すユーザの部屋にマッチし、かつユーザの好みが反映された画像(第5画像)を生成(復元)する。

画像選択部212は、画像生成部213により生成された第5画像を元に、コンテンツDB218に登録された画像群、又はユーザ画像DB220に登録されたユーザが所有する画像群から第5画像と類似する1又は複数の画像を選択する。このようにして画像選択部212により選択された画像240は、ユーザの部屋にマッチし、かつユーザの好みが反映された画像になる。

尚、図11に示す第2実施形態では、生成部211−2から出力される特徴マップから画像生成部213により画像(第5画像)を復元し、第5画像を元にコンテンツDB218に登録された画像群、又はユーザ画像DB220に登録された画像群から第5画像と類似する1又は複数の画像を選択するようにしたが、これに限らず、生成部211−2から出力される特徴マップ(特徴量)に基づいて、コンテンツDB218に登録された画像群、又はユーザ画像DB220に登録された画像群から、類似する特徴量を有する1又は複数の画像を選択するようにしてもよい。

[提案する画像の他の実施形態]

図12は、画像提案装置200により提案された画像を表示するスマートフォン100の表示画面の他の例を示す図である。

提案部の一部として機能する画像処理部214は、ユーザの部屋の画像230(図4)と画像選択部212により選択された画像240とに基づいて、部屋の画像230の壁領域に画像240を合成した合成画像(第5画像)240−2を表示用画像として生成する機能を有する。

図12に示すスマートフォン100の表示画面には、画像提案装置200から受信した表示用画像に基づいて、画像選択部212により選択された画像240が、部屋の画像の壁領域に合成された合成画像240−2が表示される。

これにより、ユーザは、自分の部屋の壁に、提案された画像240を配置した時の雰囲気又は調和性をより正確に確認することができる。

[画像提案方法]

図13は、本発明の一態様に係る画像提案方法の実施形態を示すフローチャートであり、図2に示した画像提案装置200の各部の動作に関して示している。

図13において、図2に示す画像提案装置200の各部を統括制御する制御部(図示せず)は、通信部210を介してユーザにより撮影されたユーザの部屋の画像を取得したか否かを判別する(ステップS10)。

ユーザの部屋の画像を取得していない場合(「No」の場合)、ウェブサイトでの閲覧時、ユーザのスマートフォン100内で常時動作するプログラムにより取得された「部屋と画像の組合せ」データをスマートフォン100から受信し、データ保存部222に収集・保存する(ステップS12)。

ユーザの部屋の画像を取得した場合(「Yes」の場合)、生成部211は、データ保存部222に保存されたユーザに対応する「部屋と画像の組合せ」データを使用し、ユーザの好みが反映された「部屋と画像」の関係性情報を生成する(ステップS14)。尚、「部屋と画像」の関係性情報は、ユーザごとに予め生成し、保存しておいてもよい。

続いて、画像選択部212は、通信部210を介して取得したユーザの部屋の画像(図4)と、生成された「部屋と画像」の関係性情報とに基づいて、コンテンツDB218に登録された画像群、又はユーザ画像DB220に登録された画像群からユーザの好みが反映された画像(第3画像)を選択する(ステップS16)。

画像処理部214及び通信部210は、ステップS16で選択した第3画像を、スマートフォン100の表示画面に表示させることにより、ユーザの部屋に飾る画像プリントに対応する画像(第3画像)として提案する(ステップS18)。

これにより、ユーザは、自分の部屋の画像を画像提案装置200に送信するだけで、自分の部屋にマッチし、かつ自分の好みが反映された画像の提案を受けることができる。

[その他]

本実施形態の画像提案装置200は、画像プリントの注文を受け付ける店舗等に設置された店頭端末装置でもよく、この場合、店頭端末装置がユーザの部屋の画像を直接受け付け、ユーザに提案する画像を店頭端末装置のモニタに表示し、プリント注文等のユーザ操作を受け付けるようにしてもよい。

また、データ保存部222に「部屋と画像の組合せ」データが無いユーザ、又は「部屋と画像の組合せ」データが不足しているユーザ(第1ユーザ)の場合、第1ユーザと属性(性別、年齢、嗜好等)の類似する他のユーザ(第2ユーザ)の「部屋と画像の組合せ」データを使用し、第1ユーザの好みが反映された「部屋と画像」の関係性情報を生成するようにしてもよい。

更に、本発明は、コンピュータにインストールされることにより、コンピュータを本発明に係る画像提案装置として機能させる画像提案プログラム、及びこの画像提案プログラムが記録された記録媒体を含む。

更にまた、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。

上記記載から、以下の付記項1に記載の画像提案装置を把握することができる。

[付記項1]

ユーザごとに収集される第1部屋と第1画像との組合せに関するデータであって、前記ユーザが好む前記組合せに関するデータを収集して保存するメモリと、

プロセッサと、を備え、

前記プロセッサは、

前記メモリに保存された前記ユーザに対応するデータを使用し、前記ユーザの好みが反映された前記第1部屋と前記第1画像との関係性を示す情報を生成し、

前記ユーザにより撮影された第2部屋の画像である第2画像を取得し、

取得した前記第2画像と生成された前記関係性を示す情報とに基づいて、登録された画像群又は前記ユーザが所有する画像群から前記ユーザの好みが反映された画像である第3画像を選択し、

前記ユーザの前記第2部屋に飾る画像プリントに対応する画像として、選択された前記第3画像を前記ユーザに提案する画像提案装置。

1、2 ウェアラブル端末

3 ネットワーク

4 ウェブサイト

10 ユーザ端末

20 表示部

21 表示画面

22 タッチセンサ

23 指紋センサ

24 操作ボタン

25 コントローラ

26 記憶部

27 生体情報センサ

28、210 通信部

100 スマートフォン

101 主制御部

102 筐体

110 無線通信部

120 表示入力部

121 表示パネル

122 操作パネル

130 通話部

131 スピーカ

132 マイクロホン

140 操作部

141 カメラ部

150 記憶部

151 内部記憶部

152 外部記憶部

160 外部入出力部

170 GPS受信部

180 モーションセンサ部

190 電源部

200 画像提案装置

210 通信部

211、211−2 生成部

212 画像選択部

213 画像生成部

214 画像処理部

218 コンテンツDB

220 ユーザ画像DB

222 データ保存部

230、240、240−1、240−2、250、250A 画像

232 CNN

234 損失値算出部

236 パラメータ制御部

S10〜S18 ステップ

Claims (12)


  1. ユーザごとに収集される第1部屋と第1画像との組合せに関するデータであって、前記ユーザが好む前記組合せに関するデータを収集して保存するデータ保存部と、

    前記データ保存部に保存された前記ユーザに対応するデータを使用し、前記ユーザの好みが反映された前記第1部屋と前記第1画像との関係性を示す情報を生成する生成部と、

    前記ユーザにより撮影された第2部屋の画像である第2画像を取得する画像取得部と、

    前記画像取得部により取得した前記第2画像と前記生成部により生成された前記関係性を示す情報とに基づいて、登録された画像群又は前記ユーザが所有する画像群から前記ユーザの好みが反映された画像である第3画像を選択する画像選択部と、

    前記ユーザの前記第2部屋に飾る画像プリントに対応する画像として、前記画像選択部により選択された前記第3画像を前記ユーザに提案する提案部と、

    を備えた画像提案装置。

  2. 前記ユーザの生体情報を取得する生体情報取得部と、

    画像の閲覧が可能な画像閲覧部とを備え、

    前記データ保存部は、前記ユーザによる前記画像閲覧部を使用した画像の閲覧中に前記画像閲覧部に前記第1画像が飾られた前記第1部屋の画像である第4画像が出現したときに、前記生体情報取得部から取得した前記ユーザの生体情報に基づいて前記ユーザの好みが反映された前記第4画像を取得し、前記取得した第4画像から前記ユーザが好む前記組合せに関するデータを収集する請求項1に記載の画像提案装置。

  3. 前記生体情報取得部は、前記ユーザに装着されるウェアラブル端末であり、

    前記画像閲覧部は、ネットワークを通じて閲覧する画像を取得し、前記取得した画像を表示部に表示し、かつ前記ウェアラブル端末と通信して前記ユーザの生体情報を取得する携帯端末であり、

    前記データ保存部は、前記携帯端末から前記ユーザの好みが反映された前記第4画像を取得する請求項2に記載の画像提案装置。

  4. 前記第2画像と前記生成部により生成された前記関係性を示す情報とに基づいて、前記第2部屋にマッチした第5画像を生成する画像生成部を備え、

    前記画像選択部は、前記登録された画像群又は前記ユーザが所有する画像群から前記生成された前記第5画像と類似する1又は複数の画像を前記第3画像として選択する請求項1から3のいずれか1項に記載の画像提案装置。

  5. 前記画像選択部は、前記第2画像と前記生成部により生成された前記関係性を示す情報とに基づいて、前記第2部屋にマッチした第5画像の特徴を示す特徴量を抽出し、前記登録された画像群又は前記ユーザが所有する画像群から前記抽出した特徴量と類似する特徴量を有する1又は複数の画像を前記第3画像として選択する請求項4に記載の画像提案装置。

  6. 前記生成部は、前記データ保存部に保存された前記ユーザに対応するデータを学習データとして機械学習させた認識器であり、

    前記画像選択部は、前記画像取得部により取得した前記第2画像を前記認識器の入力画像として入力し、前記認識器から出力される認識結果に基づいて、前記登録された画像群又は前記ユーザが所有する画像群から前記認識結果と類似する1又は複数の画像を前記第3画像として選択する請求項1から5のいずれか1項に記載の画像提案装置。

  7. 前記画像選択部は、前記認識器から出力される認識結果の特徴を示す特徴量を抽出し、前記登録された画像群又は前記ユーザが所有する画像群から前記抽出した特徴量と類似する特徴量を有する1又は複数の画像を前記第3画像として選択する請求項6に記載の画像提案装置。

  8. 前記生成部は、前記データ保存部に保存されたデータのうちの、第1ユーザと属性の類似する第2ユーザのデータを前記ユーザに対応するデータとして使用し、前記ユーザの好みが反映された前記第1部屋と前記第1画像との関係性を示す情報を生成する請求項1から7のいずれか1項に記載の画像提案装置。

  9. 前記提案部は、前記ユーザの好みが反映された上位の複数の前記第3画像を提案する請求項1から8のいずれか1項に記載の画像提案装置。

  10. 前記提案部は、前記画像取得部により取得した前記第2画像の壁領域に前記選択された前記第3画像を合成し、前記合成した第5画像を前記ユーザに提示する請求項1から9のいずれか1項に記載の画像提案装置。

  11. ユーザごとに収集される第1部屋と第1画像との組合せに関するデータであって、前記ユーザが好む前記組合せに関するデータを収集してデータ保存部に保存するステップと、

    前記データ保存部に保存された前記ユーザに対応するデータを使用し、前記ユーザの好みが反映された前記第1部屋と前記第1画像との関係性を示す情報を生成するステップと、

    前記ユーザにより撮影された第2部屋の画像である第2画像を取得するステップと、

    前記取得した前記第2画像と前記生成された前記関係性を示す情報とに基づいて、登録された画像群又は前記ユーザが所有する画像群から前記ユーザの好みが反映された画像である第3画像を選択するステップと、

    前記ユーザの前記第2部屋に飾る画像プリントに対応する画像として、前記選択された前記第3画像を前記ユーザに提案するステップと、

    を含む画像提案方法。

  12. ユーザごとに収集される第1部屋と第1画像との組合せに関するデータであって、前記ユーザが好む前記組合せに関するデータを収集してデータ保存部に保存する機能と、

    前記データ保存部に保存された前記ユーザに対応するデータを使用し、前記ユーザの好みが反映された前記第1部屋と前記第1画像との関係性を示す情報を生成する機能と、

    前記ユーザにより撮影された第2部屋の画像である第2画像を取得する機能と、

    前記取得した前記第2画像と前記生成された前記関係性を示す情報とに基づいて、登録された画像群又は前記ユーザが所有する画像群から前記ユーザの好みが反映された画像である第3画像を選択する機能と、

    前記ユーザの前記第2部屋に飾る画像プリントに対応する画像として、前記選択された前記第3画像を前記ユーザに提案する機能と、

    をコンピュータにより実現させる画像提案プログラム。
JP2020548029A 2018-09-21 2019-07-10 画像提案装置、画像提案方法及び画像提案プログラム Active JP7148624B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018177439 2018-09-21
JP2018177439 2018-09-21
PCT/JP2019/027384 WO2020059263A1 (ja) 2018-09-21 2019-07-10 画像提案装置、画像提案方法及び画像提案プログラム

Publications (2)

Publication Number Publication Date
JPWO2020059263A1 true JPWO2020059263A1 (ja) 2021-10-21
JP7148624B2 JP7148624B2 (ja) 2022-10-05

Family

ID=69888697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020548029A Active JP7148624B2 (ja) 2018-09-21 2019-07-10 画像提案装置、画像提案方法及び画像提案プログラム

Country Status (4)

Country Link
US (1) US11599739B2 (ja)
JP (1) JP7148624B2 (ja)
CN (1) CN112654980A (ja)
WO (1) WO2020059263A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11211157B2 (en) * 2016-12-30 2021-12-28 Intel Corporation Using emotional maps and dialog display technology to improve workout experiences
US11816144B2 (en) * 2022-03-31 2023-11-14 Pinterest, Inc. Hair pattern determination and filtering

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006244329A (ja) * 2005-03-07 2006-09-14 Hitachi Ltd 携帯端末および情報処理装置、システム
JP2011134253A (ja) * 2009-12-25 2011-07-07 Yahoo Japan Corp 不動産画像検索装置及び方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6112015A (en) * 1996-12-06 2000-08-29 Northern Telecom Limited Network management graphical user interface
US20010047250A1 (en) * 2000-02-10 2001-11-29 Schuller Joan A. Interactive decorating system
US6584465B1 (en) * 2000-02-25 2003-06-24 Eastman Kodak Company Method and system for search and retrieval of similar patterns
AU2003209565A1 (en) * 2002-02-12 2003-09-04 Yonas Jongkind Color conversion and standardization system and methods of making and using same
JP2004318359A (ja) 2003-04-15 2004-11-11 Casio Comput Co Ltd 商品販売装置および商品販売システム並びにプログラム
US7230629B2 (en) * 2003-11-06 2007-06-12 Behr Process Corporation Data-driven color coordinator
US7330585B2 (en) * 2003-11-06 2008-02-12 Behr Process Corporation Color selection and coordination kiosk and system
JP4539712B2 (ja) 2007-12-03 2010-09-08 ソニー株式会社 情報処理端末、情報処理方法、およびプログラム
US20090231356A1 (en) * 2008-03-17 2009-09-17 Photometria, Inc. Graphical user interface for selection of options from option groups and methods relating to same
US8319788B2 (en) * 2009-07-22 2012-11-27 Behr Process Corporation Automated color selection method and apparatus
US9563342B2 (en) * 2009-07-22 2017-02-07 Behr Process Corporation Automated color selection method and apparatus with compact functionality
US9639983B2 (en) * 2009-07-22 2017-05-02 Behr Process Corporation Color selection, coordination and purchase system
US9141252B2 (en) * 2011-01-04 2015-09-22 Ppg Industries Ohio, Inc. Web-based architectural color selection system
US9229621B2 (en) * 2012-05-22 2016-01-05 Paletteapp, Inc. Electronic palette system
US9645394B2 (en) * 2012-06-25 2017-05-09 Microsoft Technology Licensing, Llc Configured virtual environments
US20170132822A1 (en) * 2013-11-27 2017-05-11 Larson-Juhl, Inc. Artificial intelligence in virtualized framing using image metadata
AU2015222821B2 (en) * 2014-02-27 2020-09-03 Hunter Douglas Inc. Apparatus and method for providing a virtual decorating interface
US9798743B2 (en) * 2014-12-11 2017-10-24 Art.Com Mapping décor accessories to a color palette
US9857888B2 (en) * 2015-03-17 2018-01-02 Behr Process Corporation Paint your place application for optimizing digital painting of an image
US20170038837A1 (en) * 2015-08-04 2017-02-09 Google Inc. Hover behavior for gaze interactions in virtual reality
US20170038829A1 (en) * 2015-08-07 2017-02-09 Microsoft Technology Licensing, Llc Social interaction for remote communication
WO2017074435A1 (en) * 2015-10-30 2017-05-04 Homer Tlc, Inc. Methods, apparatuses, and systems for material coating selection operations
US10706457B2 (en) * 2015-11-06 2020-07-07 Fujifilm North America Corporation Method, system, and medium for virtual wall art
CN115202482A (zh) * 2016-08-11 2022-10-18 奇跃公司 用于三维空间中虚拟对象的自动放置的系统和方法
US20180075657A1 (en) * 2016-09-15 2018-03-15 Microsoft Technology Licensing, Llc Attribute modification tools for mixed reality
US10928888B2 (en) * 2016-11-14 2021-02-23 Logitech Europe S.A. Systems and methods for configuring a hub-centric virtual/augmented reality environment
EP4123425A1 (en) * 2017-05-31 2023-01-25 Magic Leap, Inc. Eye tracking calibration techniques
US10699488B1 (en) * 2018-09-07 2020-06-30 Facebook Technologies, Llc System and method for generating realistic augmented reality content

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006244329A (ja) * 2005-03-07 2006-09-14 Hitachi Ltd 携帯端末および情報処理装置、システム
JP2011134253A (ja) * 2009-12-25 2011-07-07 Yahoo Japan Corp 不動産画像検索装置及び方法

Also Published As

Publication number Publication date
CN112654980A (zh) 2021-04-13
US20210166067A1 (en) 2021-06-03
US11599739B2 (en) 2023-03-07
JP7148624B2 (ja) 2022-10-05
WO2020059263A1 (ja) 2020-03-26

Similar Documents

Publication Publication Date Title
JP6490023B2 (ja) 生体情報通信装置、サーバ、生体情報通信方法及び生体情報通信プログラム
US20210196188A1 (en) System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications
US10937221B2 (en) Information processing apparatus, system, and method for displaying bio-information or kinetic information
US11024070B2 (en) Device and method of managing user information based on image
US10366487B2 (en) Electronic apparatus for providing health status information, method of controlling the same, and computer-readable storage medium
AU2015201759B2 (en) Electronic apparatus for providing health status information, method of controlling the same, and computer readable storage medium
KR20160037074A (ko) 전환 거울을 구비한 장치의 이미지 디스플레이 방법 및 그 장치
KR20150079804A (ko) 이미지 처리 방법, 장치, 단말기기, 프로그램 및 기록매체
CN105912667A (zh) 一种信息推荐方法、装置及移动终端
WO2013128715A1 (ja) 電子機器
US20210212581A1 (en) Method and apparatus for providing biometric information by electronic device
US11599739B2 (en) Image suggestion apparatus, image suggestion method, and image suggestion program
US20180052324A1 (en) Virtual reality system and information processing system
KR20200056197A (ko) 추천 서비스를 제공하기 위한 방법, 이를 위한 전자 장치 및 저장 매체
JP2018005512A (ja) プログラム、電子機器、情報処理装置及びシステム
JP6608314B2 (ja) 画像評価装置、画像評価方法および画像評価プログラム
US20180098729A1 (en) Body composition measuring device and mobile terminal wirelessly connected to the same
JP2013182422A (ja) 電子機器
JP2013183289A (ja) 電子機器
JP2013153329A (ja) 電子機器
JP2013152623A (ja) 電子機器
WO2020059277A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220922

R150 Certificate of patent or registration of utility model

Ref document number: 7148624

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150