JP2020160951A - 画像処理プログラム、画像処理装置及び画像処理方法 - Google Patents

画像処理プログラム、画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2020160951A
JP2020160951A JP2019061372A JP2019061372A JP2020160951A JP 2020160951 A JP2020160951 A JP 2020160951A JP 2019061372 A JP2019061372 A JP 2019061372A JP 2019061372 A JP2019061372 A JP 2019061372A JP 2020160951 A JP2020160951 A JP 2020160951A
Authority
JP
Japan
Prior art keywords
face
customer
user
image
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019061372A
Other languages
English (en)
Other versions
JP7346869B2 (ja
Inventor
上村 拓也
Takuya Kamimura
拓也 上村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019061372A priority Critical patent/JP7346869B2/ja
Publication of JP2020160951A publication Critical patent/JP2020160951A/ja
Application granted granted Critical
Publication of JP7346869B2 publication Critical patent/JP7346869B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ユーザが見ている顔の部位を判定することができる画像処理プログラムを提供する。【解決手段】画像処理プログラムは、ユーザの鏡像または撮像装置で撮影されるユーザの表示画像に向けられる、当該ユーザの視線の位置を取得し、鏡像内のユーザの顔の位置、または、表示画像内のユーザの顔の位置を特定することで、取得した視線の位置に対応する、鏡像内のユーザの顔の部位、または、表示画像内のユーザの顔の部位を判定する、処理をコンピュータに実行させる。【選択図】図4

Description

本発明は、画像処理プログラム、画像処理装置及び画像処理方法に関する。
従来より、店舗内において顧客の視線を検知し、陳列された商品の中から、顧客が関心を持っている商品を推定する推定技術が知られている。当該推定技術によれば、販売員等は、接客の際に顧客のニーズにあった商品をレコメンドすることができる。
一方で、化粧品等の美容商品の販売においては、例えば、専用ブース等において美容部員等が実際に顧客にメイクを施しながら、接客を行うことになる。このような販売シーンにおいて、美容部員等は、着座した顧客が鏡台に映る自身の顔のどの部位(パーツ)に関心を持っているのかを見極めることが重要となる。
特開2018−206354号公報
しかしながら、鏡台に映る顧客の顔の位置は一定でなく、顧客が姿勢を変えることで変わる。このため、顧客の視線を検知するだけでは、顧客が鏡台に映る自身の顔のどの部位を実際に見ているのかを判定できず、顧客が関心を持っている顔の部位を推定することができない。
一つの側面では、ユーザが見ている顔の部位を判定することを目的としている。
一態様によれば、画像処理プログラムは、
ユーザの鏡像または撮像装置で撮影されるユーザの表示画像に向けられる、当該ユーザの視線の位置を取得し、
前記鏡像内の前記ユーザの顔の位置、または、前記表示画像内の前記ユーザの顔の位置を特定することで、取得した前記視線の位置に対応する、前記鏡像内の前記ユーザの顔の部位、または、前記表示画像内の前記ユーザの顔の部位を判定する、
処理をコンピュータに実行させる。
ユーザが見ている顔の部位を判定することができる。
関心対象推定システムのシステム構成の一例を示す第1の図である。 撮像装置の撮影範囲と、画像データ内及び鏡台内での顧客の顔の位置座標とを説明するための図である。 視線センサの計測範囲と、鏡台内での顧客の視線の位置座標とを説明するための図である。 鏡台内での顧客の顔の位置座標と、顧客の視線の位置座標との関係を説明するための図である。 画像処理装置のハードウェア構成の一例を示す図である。 画像処理装置の機能構成の一例を示す第1の図である。 データ格納部に蓄積されるデータの一例を示す図である。 顔の部位を説明するための図である。 関心対象推定処理の流れを示す第1のフローチャートである。 関心対象推定処理の流れを示す第2のフローチャートである。 集計結果の一例を示す図である。 関心対象推定システムのシステム構成の一例を示す第2の図である。 撮像装置の撮影範囲と、表示画像内での顧客の顔の位置座標とを説明するための図である。 画像処理装置の機能構成の一例を示す第2の図である。 関心対象推定システムを含む心理データ活用システムのシステム構成の一例を示す図である。
以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
[第1の実施形態]
<関心対象推定システムのシステム構成>
はじめに、関心対象推定システムのシステム構成について説明する。関心対象推定システムとは、顧客の視線に基づいて、顧客が関心を持っている対象を推定するシステムである。第1の実施形態では、関心対象推定システムを、美容部員が実際に顧客にメイクを施しながら接客を行う、化粧品の店舗(例えば、専用ブース)に適用する場合について説明する。
図1は、関心対象推定システムのシステム構成の一例を示す第1の図である。図1に示すように、化粧品の店舗に適用される関心対象推定システム100は、鏡台110と、撮像装置120と、視線センサ130と、画像処理装置140とを有する。
鏡台110は、顧客150が所定の位置に着座した際に、自身の姿を鏡像として映す鏡が取り付けられた台である。鏡台110と、顧客150との間の距離は、いずれの顧客の場合も概ね一定であるとする。なお、図1の例では、顧客150にメイクを施す美容部員を省略しているが、実際には、顧客150の後または横には、美容部員がいるものとする。
撮像装置120は、例えば、RGBカメラであり、顧客150を所定のフレームレート(例えば、30フレーム/秒)で撮影し、撮影した画像データを画像処理装置140に送信する。これにより、画像処理装置140では、美容部員が顧客150にメイクを施している最中に顧客150の顔の位置が動いたとしても、画像データ内での顧客150の顔の位置座標(撮像装置120に対する相対的な位置座標)を逐次算出することができる。
ここで、鏡台110と撮像装置120との位置関係は固定されている。このため、画像データ内での顧客150の顔の位置座標(撮像装置120に対する相対的な位置座標)を逐次算出することで、画像処理装置140では、鏡台110内での顧客150の顔の位置座標を逐次算出することができる。つまり、画像処理装置140によれば、鏡像内の顧客150の顔の位置を逐次特定することができる。
なお、図1の例では、撮像装置120を、鏡台110の上部に配置する場合について示したが、撮像装置120を配置する位置はこれに限定されない。また、図1の例では、撮像装置120を、鏡台110に一体的に取り付けたが、鏡台110とは別体に取り付けてもよい。別体に取り付ける場合にあっては、撮像装置120は、顧客150の正面側に配置する必要はなく、顧客150の背面側に配置してもよい。
視線センサ130は、例えば、赤外線カメラであり、顧客150の視線を毎秒30回ずつ検知し、検知した視線データを画像処理装置140に送信する。これにより、画像処理装置140では、美容部員が顧客150にメイクを施している最中の顧客150の視線の位置座標(鏡台110内における位置座標)を逐次算出することができる。つまり、画像処理装置140によれば、鏡像内の顧客150の視線の位置を逐次取得することができる。
画像処理装置140は、撮像装置120より送信された画像データを受信し、受信した画像データに基づいて、画像データ内での顧客150の顔の位置座標を算出し、蓄積する。また、画像処理装置140は、画像データ内での顧客150の顔の位置座標に基づいて、鏡台110内での顧客150の顔の位置座標を算出し、蓄積する。
また、画像処理装置140は、視線センサ130より送信された視線データを受信し、受信した視線データに基づいて、鏡台110内での顧客150の視線の位置座標を算出し、蓄積する。
また、画像処理装置140は、鏡台110内での顧客150の顔の位置座標と、鏡台110内での顧客150の視線の位置座標とに基づいて、鏡台110内に映る自身の顔のうち、顧客150が実際に見ている顔の部位(パーツ)を判定する。
更に、画像処理装置140は、顔の各部位(各パーツ)について、顧客が見た回数等を集計することで、顧客150が関心を持っている顔の部位を推定する。
<撮像装置の撮影範囲及び位置座標>
次に、撮像装置120の撮影範囲、及び、顧客の顔の位置座標(画像データ内での位置座標、鏡台110内での位置座標)について説明する。図2は、撮像装置の撮影範囲と、画像データ内及び鏡台内での顧客の顔の位置座標とを説明するための第1の図である。
図2に示すように、鏡台110に配置された撮像装置120は、鏡台110の正面方向の撮影範囲210について撮影を行う。図2において、2点鎖線220は、顧客150が着座する位置を示している。
画像データ230は、撮像装置120が顧客150を撮影することで得られる画像データの一例である。図2に示すように、画像データ230には、各画素の座標が規定されている(例えば、原点=座標(0,0))。このため、画像処理装置140では、画像データ230から顔領域を抽出することで、画像データ230内での顧客150の顔の位置座標、及び、画像データ230内での顧客150の顔の各部位の位置座標を算出することができる。
なお、画像データ230内での顧客150の顔の位置座標は、例えば、抽出した顔領域(例えば、矩形領域)の中心位置座標であってもよいし、抽出した顔領域(例えば、矩形領域)の各頂点の位置座標であってもよい。同様に、顔の各部位の位置座標は、例えば、抽出した顔領域(例えば、矩形領域)を複数に区分した各区分領域(例えば、矩形領域)の中心位置座標であってもよいし、各区分領域(例えば、矩形領域)の各頂点の位置座標であってもよい。
ここで、画像処理装置140では、鏡台110と撮像装置120との位置関係及び撮像装置120の撮影範囲210に基づいて、画像データ230のうち、鏡台110内に映る範囲231を特定する。
これにより、画像処理装置140では、画像データ230内での顧客150の顔の位置座標、及び、画像データ230内での顧客150の顔の各部位の位置座標を、鏡台110内での位置座標にそれぞれ変換することができる。この結果、画像処理装置140では、鏡台110内での顧客150の顔の位置座標、及び、鏡台110内での顧客150の顔の各部位の位置座標を算出することができる。なお、図2の例では、鏡台110の左下の位置を原点とし、顧客150から見て右方向をX軸方向、顧客150から見て上方向をY軸方向として座標が規定されている。
このため、画像処理装置140では、画像データ230の原点に基づいて算出した画像データ230内での顧客150の顔の位置座標を、鏡台110の左下の位置(範囲231の右下の位置)を原点とする位置座標に変換する。また、画像処理装置140では、画像データ230の原点に基づいて算出した画像データ230内での顧客150の顔の各部位の位置座標を、鏡台110の左下の位置(範囲231の右下の位置)を原点とする位置座標に変換する。
この結果、画像処理装置140では、鏡台110の左下の位置を原点とする、鏡台110内での顧客150の顔の位置座標、及び、鏡台110内での顧客150の顔の各部位の位置座標を算出することができる。
<視線センサの計測範囲及び位置座標>
次に、視線センサ130の計測範囲、及び、顧客150の視線の位置座標(鏡台110内での位置座標)について説明する。図3は、視線センサの計測範囲と、鏡台内での顧客の視線の位置座標とを説明するための図である。
図3に示すように、鏡台110に配置された視線センサ130は、鏡台110の正面方向の計測範囲310について計測を行う。図3において、2点鎖線220は、顧客150が着座する位置を示している。
視線センサ130により顧客150の視線320が検知されると、画像処理装置140では、検知された視線データから、鏡台110内での顧客150の視線の位置を取得する。図3においてマーク330は、取得された鏡台110内での顧客150の視線の位置を示している。
上述したように、鏡台110内は、左下の位置を原点とし、顧客150から見て右方向をX軸方向、顧客150から見て上方向をY軸方向として座標が規定されている。このため、画像処理装置140では、マーク330の鏡台110内での位置座標を算出することで、鏡台110内での顧客150の視線の位置座標を算出することができる。
<顔の位置と、視線の位置との位置関係>
次に、メイク中の顧客150の顔の位置と、視線の位置との位置関係について説明する。図4は、鏡台内での顧客の顔の位置座標と、顧客の視線の位置座標との関係を説明するための図である。このうち、図4(a)は、時刻=T0における鏡台110の様子(顧客150の顔の位置と、顧客150の視線の位置との位置関係)を示している。図4(a)の例では、時刻=T0において、顧客150の視線の位置は、鏡台110に映っている自身の顔の目の下のあたりにあることを示している。
一方、図4(b)、(c)は、時刻=T1における鏡台110の様子(顧客150の顔の位置と、顧客150の視線の位置との位置関係)を示している。なお、図4(b)と図4(c)とでは、鏡台110内における視線の位置は同じである。
ここで、図4(b)は、時刻=T0から時刻=T1の間に、顧客150の顔の位置が動いていない場合を示している。図4(b)の場合、顧客150の視線の位置は、鏡台110に映っている自身の顔の耳のあたりにあることを示している。
これに対して、図4(c)は、時刻=T0から時刻T1の間に、顧客150の顔の位置が動いている場合を示している。図4(c)の場合、顧客150の視線の位置は、鏡台110に映っている自身の顔の目の下のあたりにあることを示している。
このように、メイク中に鏡台に映る顧客150の顔の位置は一定でなく、例えば、顧客150が姿勢を変えることで鏡台110に映る顔の位置も変わる。このため、鏡台110内での顧客150の視線の位置が同じであっても、顧客150が見ている顔の部位が同じとは限らない。あるいは、鏡台110内での顧客150の視線の位置が変化したとしても、顧客150が見ている顔の部位が変化しているとは限らない。
つまり、顧客150が実際に見ている顔の部位を、鏡台110内での顧客150の視線の位置座標のみに基づいて判定することはできない。このため、画像処理装置140では、顧客が見ている顔の部位を判定するにあたり、鏡台110内での顧客150の視線の位置座標と、鏡台110内での顧客150の顔の各部位の位置座標とを比較する(詳細は後述)。これにより、画像処理装置140によれば、鏡像において顧客150が実際に見ている顔の部位を精度よく判定することができる。
<画像処理装置のハードウェア構成>
次に、画像処理装置140のハードウェア構成について説明する。図5は、画像処理装置のハードウェア構成の一例を示す図である。図5に示すように、画像処理装置140は、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503を有する。CPU501、ROM502、RAM503は、いわゆるコンピュータを形成する。
また、画像処理装置140は、補助記憶部504、操作部505、I/F(Interface)部506、ドライブ部507を有する。なお、画像処理装置140の各ハードウェアは、バス508を介して相互に接続されている。
CPU501は、補助記憶部504にインストールされている各種プログラム(例えば、後述する画像処理プログラム等)を実行する演算デバイスである。
ROM502は、不揮発性メモリである。ROM502は、補助記憶部504にインストールされている各種プログラムをCPU501が実行するために必要な各種プログラム、データ等を格納する主記憶デバイスとして機能する。具体的には、ROM502はBIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する、主記憶デバイスとして機能する。
RAM503は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリである。RAM503は、補助記憶部504にインストールされている各種プログラムがCPU501によって実行される際に展開される作業領域を提供する、主記憶デバイスとして機能する。
補助記憶部504は、各種プログラムや、各種プログラムが実行されることで取得される情報を格納する補助記憶デバイスである。後述するデータ格納部は、補助記憶部504において実現される。
操作部505は、画像処理装置140の管理者が画像処理装置140に対して各種指示を入力する入力デバイスである。I/F部506は、撮像装置120及び視線センサ130に接続され、画像処理装置140が、撮像装置120及び視線センサ130より、画像データ及び視線データを受信するための通信デバイスである。
ドライブ部507は記録媒体510をセットするためのデバイスである。ここでいう記録媒体510には、CD−ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体510には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。
なお、補助記憶部504にインストールされる各種プログラムは、例えば、配布された記録媒体510がドライブ部507にセットされ、該記録媒体510に記録された各種プログラムがドライブ部507により読み出されることでインストールされる。あるいは、補助記憶部504にインストールされる各種プログラムは、不図示のネットワークよりダウンロードされることでインストールされてもよい。
<画像処理装置の機能構成>
次に、画像処理装置140の機能構成について説明する。図6は、画像処理装置の機能構成の一例を示す第1の図である。上述したとおり、画像処理装置140には、画像処理プログラムがインストールされており、当該プログラムが実行されることで、画像処理装置140は、画像データ内顔位置座標蓄積部610、鏡台内顔位置座標蓄積部620として機能する。また、画像処理装置140は、鏡台内視線位置座標蓄積部630、パーツ判定部640として機能する。更に、画像処理装置140は、回数算出部650、回数増加量判定部660、増加量算出部670、関心対象推定部680、出力部690として機能する。
画像データ内顔位置座標蓄積部610は、撮像装置120より送信された画像データを受信し、受信した画像データより、顧客150の顔領域を抽出する。また、画像データ内顔位置座標蓄積部610は、抽出した顔領域の各画像データ内での位置を特定することで、各時刻における画像データ内での顧客150の顔の位置座標(x座標、y座標)を算出する。なお、以下では、画像データ内での顧客150の顔の位置座標を、画像データ内顔位置座標と称す。
また、画像データ内顔位置座標蓄積部610は、算出した画像データ内顔位置座標を、時刻情報と対応付けてデータ格納部600に蓄積するとともに、鏡台内顔位置座標蓄積部620に通知する。
鏡台内顔位置座標蓄積部620は、画像データ内顔位置座標蓄積部610より、画像データ内顔位置座標が通知されると、鏡台110内での顧客150の顔の位置座標(X座標、Y座標)を算出する。なお、以下では、鏡台110内での顧客150の顔の位置座標を鏡台内顔位置座標と称す。
また、鏡台内顔位置座標蓄積部620は、算出した鏡台内顔位置座標を、時刻情報と対応付けてデータ格納部600に蓄積する。
鏡台内視線位置座標蓄積部630は取得部の一例である。鏡台内視線位置座標蓄積部630は、視線センサ130より送信された視線データを受信し、受信した視線データに基づいて、鏡台110内での顧客150の視線の位置座標(X座標、Y座標)を算出する。なお、以下では、鏡台110内での顧客150の視線の位置座標を鏡台内視線位置座標と称す。
また、鏡台内視線位置座標蓄積部630は、算出した鏡台内視線位置座標を、時刻情報と対応付けてデータ格納部600に蓄積する。
パーツ判定部640は判定部の一例である。パーツ判定部640は、データ格納部600に蓄積された、各時刻における鏡台内視線位置座標と、鏡台内顔位置座標とを読み出す。また、パーツ判定部640は、読み出した鏡台内顔位置座標に基づいて、顧客150の顔領域を複数の領域に区分した場合の、各区分領域の鏡台110内での位置座標(X座標、Y座標)を算出する。
また、パーツ判定部640は、読み出した鏡台内視線位置座標が、算出した各区分領域の鏡台110内での位置座標のいずれに含まれるかを判定する。更に、パーツ判定部640は、鏡台内視線位置座標が、いずれかの区分領域の位置座標に含まれると判定した場合、当該区分領域を示す情報(顔パーツ情報と称す)を、時刻情報と対応付けてデータ格納部600に蓄積する。
これにより、パーツ判定部640は、顧客150が鏡台110内に映る自身の顔について、各時刻において、いずれの部位を見たかを判定することができる。
回数算出部650は、データ格納部600に蓄積された、各時刻において顧客150が顔の部位を見た回数を、顔の部位ごとに分けて集計することで、各部位を見た回数を算出する。
回数増加量判定部660は、顧客150が各部位を見た回数を、更に、所定の時間範囲ごとに分けて集計する。これにより、回数増加量判定部660は、時刻が進むごとに、顧客150が各部位を見た回数がどのように変化したかを判定することができる。
増加量算出部670は、全ての部位について集計した、顧客150が見た回数(自身の顔のいずれかの部位を見た回数)を、所定の時間範囲ごとに分けて集計する。これにより、増加量算出部670は、時刻が進むごとに、顧客150が自身の顔のいずれかの部位を見た回数がどのように変化したかを判定することができる。
関心対象推定部680は、回数算出部650による集計結果、回数増加量判定部660による集計結果、及び、増加量算出部670による集計結果に基づいて、顧客150の関心対象を推定する。具体的には、関心対象推定部680は、顧客150が、自身の顔のいずれかの部位に関心があるか否か、関心があると判定した場合には、いずれの部位に関心があるかを推定する。
出力部690は、関心対象推定部680により推定された、顧客150の関心対象についての推定結果を出力する。出力部690は、例えば、顧客150にメイクを施している美容部員に出力する。これにより、美容部員は、顧客150に対して、推定結果に応じた接客を行うことができる。
<データ格納部のデータ例>
次に、データ格納部600に蓄積されたデータ例について説明する。図7は、データ格納部に蓄積されるデータの一例を示す図である。図7に示すように、データ格納部600に蓄積されるデータ700には、データの項目として、“時刻情報”、“鏡台内視線位置座標”、“画像データ内顔位置座標”、“鏡台内顔位置座標”、“顔パーツ情報”が含まれる。
“時刻情報”には、鏡台内視線位置座標、画像データ内顔位置座標、鏡台内顔位置座標、顔パーツ情報が、データ格納部600に蓄積された時刻が記録される。
“鏡台内視線位置座標”には、鏡台内視線位置座標蓄積部630により算出された鏡台内視線位置座標(X座標、Y座標)が記録される。
“画像データ内顔位置座標”には、画像データ内顔位置座標蓄積部610により算出された画像データ内顔位置座標(x座標、y座標)が記録される。
“鏡台内顔位置座標”には、鏡台内顔位置座標蓄積部620により算出された鏡台内顔位置座標(X座標、Y座標)が記録される。
“顔パーツ情報”には、パーツ判定部640により判定された顔パーツ情報が記録される。なお、図8は、顔の部位を説明するための図である。上述したとおり、パーツ判定部640は、顧客150の顔領域800を複数の領域に区分した場合の、各区分領域の鏡台110内での位置座標(X座標、Y座標)を、鏡台110内での顧客150の顔の各部位の位置座標として算出する。なお、パーツ判定部640は、鏡台110内での顧客150の顔の各部位の位置座標を、鏡台内顔位置座標に基づいて算出する。
図8は、顧客150の顔領域800を10個の領域に区分した場合の各区分領域(区分領域801〜805、区分領域811〜815)を示したものである。図8の例によれば、“顔パーツ情報”には、顔の部位として、区分領域801〜805、区分領域811〜815のいずれかを示す情報が記録されることになる。
<関心対象推定処理の流れ>
次に、画像処理装置140による関心領域推定処理の流れについて説明する。図9、図10は、関心対象推定処理の流れを示す第1及び第2のフローチャートである。顧客150が鏡台110に対して所定の位置に着座することで、図9及び図10に示す関心対象推定処理が開始される。
ステップS901において、画像データ内顔位置座標蓄積部610は、撮像装置120より画像データを受信し、顧客150の顔領域を抽出することで、画像データ内顔位置座標を算出し、データ格納部600に蓄積する。
ステップS902において、鏡台内顔位置座標蓄積部620は、画像データ内顔位置座標蓄積部610により算出された画像データ内顔位置座標に基づいて、鏡台内顔位置座標を算出し、データ格納部600に蓄積する。
ステップS903において、鏡台内視線位置座標蓄積部630は、視線センサ130より視線データを受信し、鏡台内視線位置座標を算出し、データ格納部600に蓄積する。
ステップS904において、パーツ判定部640は、鏡台内顔位置座標蓄積部620により算出された鏡台内顔位置座標に基づいて、顧客150の顔の各部位(例えば、区分領域801〜805、区分領域811〜815)の鏡台110内での位置座標を算出する。
ステップS905において、パーツ判定部640は、算出した鏡台110内での顧客150の顔の各部位の位置座標と、鏡台内視線位置座標とを比較することで、鏡台内視線位置座標が含まれる顔の部位を判定する。
ステップS906において、パーツ判定部640は、判定した顔の部位を、顔パーツ情報としてデータ格納部600に蓄積する。
ステップS907において、回数算出部650は、前回の集計タイミングから所定時間が経過したか否かを判定する。ステップS907において所定時間が経過したと判定した場合には(ステップS907においてYesの場合には)、図10のステップS1001に進む。一方、ステップS907において所定時間が経過していないと判定した場合には(ステップS907においてNoの場合には)、ステップS908に進む。
図10のステップS1001において、回数算出部650は、データ格納部600に蓄積されたデータ700に基づいて、顧客150が顔の各部位を見た回数を集計する。
ステップS1002において、回数増加量判定部660は、顧客150が顔の各部位を見た回数を、所定の時間範囲ごとに分けて集計し、時刻が進むごとに、顧客150が顔の各部位を見た回数がどのように変化したかを判定する。また、増加量算出部670は、顧客150がいずれかの顔の部位を見た回数を、所定の時間範囲ごとに分けて集計し、時刻が進むごとに、顧客150がいずれかの顔の部位を見た回数がどのように変化したかを判定する。
ステップS1003において、関心対象推定部680は、回数算出部650による集計結果、回数増加量判定部660による集計結果、及び、増加量算出部670による集計結果に基づいて、顧客150の関心対象を推定する。
ステップS1004において、出力部690は、顧客150の関心対象についての推定結果を出力し、図9のステップS908に戻る。
ステップS908において、画像データ内顔位置座標蓄積部610は、関心対象推定処理を終了するか否かを判定する。ステップS908において、終了しないと判定した場合には(ステップS908においてNoの場合には)、ステップS901に戻る。一方、ステップS908において、終了すると判定した場合には(ステップS908においてYesの場合には)、関心領域推定処理を終了する。
<集計結果の一例>
次に、データ格納部600に蓄積されたデータの集計結果について説明する。図11は、集計結果の一例を示す図である。このうち、図11(a)は、回数算出部650による集計結果の一例を示す図である。図11(a)において、横軸は部位名(例えば、区分領域801〜805、区分領域811〜815を表す名称)であり、縦軸は顧客150が見た回数を示している。図11(a)に示すように、顧客150が鏡台110に映る自身の顔を見る場合、部位ごとに見る回数は異なっており、部位間でばらつきがある。
一方、図11(b)は、回数増加量判定部660による集計結果の一例を示す図である。図11(b)に示すように、顧客150が鏡台110に映る自身の顔を見る場合、時間経過とともに、関心が高まっていく部位と、関心が薄らいでいく部位とが含まれる。
このため、関心対象推定部680では、例えば、回数算出部650による集計結果及び、回数増加量判定部660による集計結果に基づいて、顧客150の現在の関心対象を推定することができる。
以上の説明から明らかなように、第1の実施形態に係る画像処理装置140は、顧客の鏡像に向けられる、当該顧客の視線の位置を取得する。また、第1の実施形態に係る画像処理装置140は、鏡像内の顧客の顔の位置を特定することで、特定した視線の位置に対応する、鏡像内の当該顧客の顔の部位を判定する。
これにより、第1の実施形態に係る画像処理装置140によれば、鏡像において顧客が見ている顔の部位を精度よく判定することができる。
[第2の実施形態]
上記第1の実施形態では、顧客の鏡像に向けられる、当該顧客の視線の位置に対応する、鏡像内の当該顧客の顔の部位を判定する場合について説明した。これに対して、第2の実施形態では、撮像装置で撮影される顧客の表示画像に向けられる、当該顧客の視線の位置を取得し、取得した視線の位置に対応する、表示画像内の顧客の顔の部位を判定する場合について説明する。以下、第2の実施形態について、上記第1の実施形態との相違点を中心に説明する。
<関心対象推定システムのシステム構成>
はじめに、第2の実施形態に係る関心対象推定システムのシステム構成について説明する。図12は、関心対象推定システムのシステム構成の一例を示す第2の図である。図1に示す関心対象推定システム100との相違点は、関心対象推定システム1200の場合、鏡台110に代えて、表示装置1210が配されている点と、画像処理装置1220の機能が、画像処理装置140の機能とは異なる点である。
表示装置1210は、撮像装置120により撮影された画像データであって、画像処理装置1220において左右反転された画像データを、画像処理装置1220より受信し、表示する。
画像処理装置1220は、撮像装置120より送信された画像データを受信し、受信した画像データを左右反転して、表示装置1210に送信する。また、画像処理装置1220は、左右反転した画像データにおいて顔領域を抽出し、表示装置1210内での顧客150の顔の位置座標(X座標、Y座標)を逐次算出する(表示画像内の顧客150の顔の位置を逐次特定する)。
また、画像処理装置1220は、視線センサ130より送信された視線データを受信し、受信した視線データに基づいて、表示装置1210内での顧客150の視線の位置座標を逐次算出する(表示画像内の顧客150の視線の位置を逐次特定する)。
また、画像処理装置1220は、表示装置1210内での顧客150の顔の位置座標と、表示装置1210内での顧客150の視線の位置座標とに基づいて、表示装置1210に表示された自身の顔のうち、顧客150が実際に見ている顔の部位を判定する。
更に、画像処理装置1220は、顔の各部位について、顧客が見た回数等を集計することで、顧客150が関心を持っている部位を推定する。
<撮像装置の撮影範囲及び位置座標>
次に、撮像装置120の撮影範囲、及び、顧客の顔の位置座標(表示装置1210内での位置座標)について説明する。図13は、撮像装置の撮影範囲と、表示装置内での顧客の顔の位置座標とを説明するための図である。
図13に示すように、表示装置1210に配置された撮像装置120は、表示装置1210の正面方向の撮影範囲210について撮影を行う。図13において、2点鎖線220は、顧客150が着座する位置を示している。
画像データ230は、撮像装置120が顧客150を撮影することで得られる画像データの一例である。また、画像データ1310は、画像データ230を左右反転し、表示装置1210に表示する範囲231を抽出することで得られる画像データである。
図13に示すように、画像データ1310には、表示装置1210に表示した場合の各画素の座標が規定されている。図13の例では、表示装置1210の左下を原点とし、顧客150から見て右方向をX軸方向、顧客150から見て上方向をY軸方向として座標が規定されている。
画像処理装置1220では、画像データ1310の原点の座標(0,0)に基づいて、画像データ1310内での顧客150の顔の位置座標、及び、画像データ1310内での顔の各部位の位置座標を算出する。
なお、第2の実施形態の場合、画像データ1310内での顧客150の顔の位置座標は、表示装置1210内での顧客150の顔の位置座標と等しい。また、画像データ1310内での顧客150の顔の各部位の位置座標は、表示装置1210内での顧客150の顔の各部位の位置座標と等しい。
<画像処理装置の機能構成>
次に、画像処理装置1220の機能構成について説明する。図14は、画像処理装置の機能構成の一例を示す第2の図である。図6に示した機能構成との相違点は、画像データ取得部1410、画像データ補正部1420、補正後画像データ表示部1430、表示装置内顔位置座標蓄積部1440、表示装置内視線位置座標蓄積部1450、パーツ判定部1460を有する点である。
画像データ取得部1410は、撮像装置120より送信された画像データを受信し、受信した画像データを画像データ補正部1420に通知する。
画像データ補正部1420は、通知された画像データのうち、表示装置1210に表示する範囲を抽出し、抽出した画像データを左右反転することで補正する。また、画像データ補正部1420は、補正後の画像データを補正後画像データ表示部1430に通知する。
補正後画像データ表示部1430は、画像データ補正部1420より通知された補正後の画像データを、表示装置1210に送信する。また、補正後画像データ表示部1430は、画像データ補正部1420より通知された補正後の画像データを、表示装置内顔位置座標蓄積部1440に通知する。
表示装置内顔位置座標蓄積部1440は、補正後画像データ表示部1430より、補正後の画像データが通知されると、顔領域を抽出し、表示装置1210内での顧客150の顔の位置座標(X座標、Y座標)を算出する。なお、以下では、表示装置1210内での顧客150の顔の位置座標を、表示装置内顔位置座標と称す。
また、表示装置内顔位置座標蓄積部1440は、算出した表示装置内顔位置座標を、時刻情報と対応付けてデータ格納部600に蓄積する。
表示装置内視線位置座標蓄積部1450は、視線センサ130より送信された視線データを受信し、受信した視線データに基づいて、表示装置1210内での顧客150の視線の位置座標(X座標、Y座標)を算出する。なお、以下では、表示装置1210内での顧客150の視線の位置座標を表示装置内視線位置座標と称す。
また、表示装置内視線位置座標蓄積部1450は、算出した表示装置内視線位置座標を、時刻情報と対応付けてデータ格納部600に蓄積する。
パーツ判定部1460は、データ格納部600に蓄積された、各時刻における表示装置内視線位置座標と、表示装置内顔位置座標とを読み出す。また、パーツ判定部640は、読み出した表示装置内顔位置座標に基づいて、顧客150の顔領域を複数の領域に区分した場合の、各区分領域の表示装置1210内での位置座標(X座標、Y座標)を算出する。
また、パーツ判定部1460は、読み出した表示装置内視線位置座標が、算出した各区分領域の表示装置1210内での位置座標のいずれに含まれるかを判定する。更に、パーツ判定部1460は、表示装置内視線位置座標が、いずれかの区分領域の位置座標に含まれると判定した場合、当該区分領域を示す情報(顔パーツ情報)を、時刻情報と対応付けてデータ格納部600に蓄積する。
これにより、パーツ判定部1460は、顧客150が表示装置1210内に表示される自身の顔について、各時刻において、いずれの部位を見たかを判定することができる。
以上の説明から明らかなように、第2の実施形態に係る画像処理装置1220は、撮像装置で撮影される顧客の表示画像に向けられる、当該顧客の視線の位置を取得する。また、第2の実施形態に係る画像処理装置1220は、表示装置内の顧客の顔の位置を特定することで、特定した視線の位置に対応する、表示画像内の当該顧客の顔の部位を判定する。
これにより、第2の実施形態に係る画像処理装置1220によれば、表示画像において顧客が見ている顔の部位を精度よく判定することができる。
[第3の実施形態]
上記第1及び第2の実施形態では、顧客150の関心対象についての推定結果を、美容部員に出力するものとして説明した。しかしながら、顧客150の関心対象についての推定結果の出力先はこれに限定されず、他の用途に用いてもよい。以下、第3の実施形態について説明する。
図15は、関心対象推定システムを含む心理データ活用システムのシステム構成の一例を示す図である。図15に示すように、心理データ活用システム1500は、複数の画像処理装置140と、分析サーバ1510と、解析装置1520、1530と、携帯端末1540とを有する。
複数の画像処理装置140は、それぞれ、顧客の関心対象についての推定結果を、顧客情報と対応付けて、分析サーバ1510に送信する。
分析サーバ1510は、複数の画像処理装置140それぞれより、顧客の関心対象についての推定結果及び顧客情報を受信し、分析用データとして、分析用データ格納部1512に格納する。
また、分析サーバ1510は、心理データ分析部1511を有し、心理データ分析部1511は、分析用データ格納部1512より、顧客の関心対象についての推定結果及び顧客情報を読み出し、各顧客の心理データを分析する。また、心理データ分析部1511は、分析結果を、例えば、商品販売部門の解析装置1520及び商品開発部門の解析装置1530に送信する。
更に、心理データ分析部1511は、分析結果に応じて顧客ごとに導出したレコメンド商品を、顧客の携帯端末1540に送信する。
商品販売部門の解析装置1520が、分析サーバ1510より分析結果を受信すると、商品販売部門の従業員は、受信した分析結果に基づいて、商品販売戦略を立案する。なお、立案された商品販売戦略は、化粧品の店舗にフィードバックされる。
また、商品開発部門の解析装置1530が、分析サーバ1510より分析結果を受信すると、商品開発部門の従業員は、受信した分析結果に基づいて、商品開発を行う。なお、商品開発の結果は、商品販売部門にフィードバックされる。
携帯端末1540は、分析サーバ1510より、レコメンド商品を受信し表示する。これにより、それぞれの顧客は、自身の心理データに則した商品についてのレコメンドを受けることができる。
このように、心理データ活用システム1500によれば、顧客150の関心対象についての推定結果を、顧客150の心理データとして分析することで、推定結果を様々な用途に活用することができる。
[その他の実施形態]
上記第1の実施形態では、撮像装置120により撮影された画像データに基づいて、鏡台110内での顧客150の顔の位置座標を算出するものとして説明した。しかしながら、顧客150の顔の位置座標の算出方法はこれに限定されず、例えば、視線センサ130により検知された視線データに基づいて、顧客150の顔の位置座標を算出してもよい。この場合、撮像装置120を配置する必要がなくなるといった利点がある。
また、上記各実施形態では、顔領域を複数の領域に区分し、顧客の視線の位置座標が各区分領域のいずれに含まれるかを判定することで、顧客が見ている顔の部位を判定した。しかしながら、顧客が見ている顔の部位の判定方法はこれに限定されない。例えば、顔領域に含まれる部位そのもの(目、鼻、口等)の形状からなる領域を抽出し、顧客の視線の位置座標がいずれの形状領域に含まれるかを判定することで、顧客が見ている部位を判定してもよい。つまり、顧客が見ている部位は、顔領域のいずれかの区分領域であっても、顔領域のいずれかの形状領域であってもよい。
また、上記各実施形態では、顔領域を矩形領域として抽出したが、抽出する顔領域の形状はこれに限定されない。同様に、上記各実施形態では、区分領域を矩形領域としたが、区分領域の形状はこれに限定されない。また、顔領域の区分方法、区分個数も図8に示した例に限定されない。
また、上記各実施形態では、関心対象推定システムを、化粧品の店舗に適用する場合について説明したが、他の商品や他のサービスを提供する店舗に適用してもよい。また、適用先は店舗に限定されず、自宅内であってもよい。この場合、関心対象についての推定は、店舗の顧客に対してではなく、関心対象推定システムを利用するユーザに対して行われることになる。
なお、開示の技術では、以下に記載する付記のような形態が考えられる。
(付記1)
ユーザの鏡像または撮像装置で撮影されるユーザの表示画像に向けられる、当該ユーザの視線の位置を取得し、
前記鏡像内の前記ユーザの顔の位置、または、前記表示画像内の前記ユーザの顔の位置を特定することで、取得した前記視線の位置に対応する、前記鏡像内の前記ユーザの顔の部位、または、前記表示画像内の前記ユーザの顔の部位を判定する、
処理をコンピュータに実行させる画像処理プログラム。
(付記2)
撮像装置で撮影される画像内の前記ユーザの顔の位置に基づいて、前記鏡像内の前記ユーザの顔の位置を特定する、付記1に記載の画像処理プログラム。
(付記3)
前記鏡像内の前記ユーザの視線の位置が、前記鏡像内の前記ユーザの顔の領域を複数の領域に区分した場合のいずれの区分領域に含まれるかを判定することで、前記鏡像内の前記ユーザの顔の部位を判定する、付記2に記載の画像処理プログラム。
(付記4)
前記表示画像内の前記ユーザの視線の位置が、前記表示画像内の前記ユーザの顔の領域を複数の領域に区分した場合のいずれの区分領域に含まれるかを判定することで、前記表示画像内の前記ユーザの顔の部位を判定する、付記1に記載の画像処理プログラム。
(付記5)
ユーザの鏡像または撮像装置で撮影されるユーザの表示画像に向けられる、当該ユーザの視線の位置を取得する取得部と、
前記鏡像内の前記ユーザの顔の位置、または、前記表示画像内の前記ユーザの顔の位置を特定することで、取得した前記視線の位置に対応する、前記鏡像内の前記ユーザの顔の部位、または、前記表示画像内の前記ユーザの顔の部位を判定する判定部と
を有する画像処理装置。
(付記6)
ユーザの鏡像または撮像装置で撮影されるユーザの表示画像に向けられる、当該ユーザの視線の位置を取得し、
前記鏡像内の前記ユーザの顔の位置、または、前記表示画像内の前記ユーザの顔の位置を特定することで、取得した前記視線の位置に対応する、前記鏡像内の前記ユーザの顔の部位、または、前記表示画像内の前記ユーザの顔の部位を判定する、
処理をコンピュータが実行する画像処理方法。
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
100 :関心対象推定システム
110 :鏡台
120 :撮像装置
130 :視線センサ
140 :画像処理装置
610 :画像データ内顔位置座標蓄積部
620 :鏡台内顔位置座標蓄積部
630 :鏡台内視線位置座標蓄積部
640 :パーツ判定部
650 :回数算出部
660 :回数増加量判定部
670 :増加量算出部
680 :関心対象推定部
690 :出力部
1200 :関心対象推定システム
1210 :表示装置
1220 :画像処理装置
1410 :画像データ取得部
1420 :画像データ補正部
1430 :補正後画像データ表示部
1440 :表示装置内顔位置座標蓄積部
1450 :表示装置内視線位置座標蓄積部
1460 :パーツ判定部

Claims (6)

  1. ユーザの鏡像または撮像装置で撮影されるユーザの表示画像に向けられる、当該ユーザの視線の位置を取得し、
    前記鏡像内の前記ユーザの顔の位置、または、前記表示画像内の前記ユーザの顔の位置を特定することで、取得した前記視線の位置に対応する、前記鏡像内の前記ユーザの顔の部位、または、前記表示画像内の前記ユーザの顔の部位を判定する、
    処理をコンピュータに実行させる画像処理プログラム。
  2. 撮像装置で撮影される画像内の前記ユーザの顔の位置に基づいて、前記鏡像内の前記ユーザの顔の位置を特定する、請求項1に記載の画像処理プログラム。
  3. 前記鏡像内の前記ユーザの視線の位置が、前記鏡像内の前記ユーザの顔の領域を複数の領域に区分した場合のいずれの区分領域に含まれるかを判定することで、前記鏡像内の前記ユーザの顔の部位を判定する、請求項2に記載の画像処理プログラム。
  4. 前記表示画像内の前記ユーザの視線の位置が、前記表示画像内の前記ユーザの顔の領域を複数の領域に区分した場合のいずれの区分領域に含まれるかを判定することで、前記表示画像内の前記ユーザの顔の部位を判定する、請求項1に記載の画像処理プログラム。
  5. ユーザの鏡像または撮像装置で撮影されるユーザの表示画像に向けられる、当該ユーザの視線の位置を取得する取得部と、
    前記鏡像内の前記ユーザの顔の位置、または、前記表示画像内の前記ユーザの顔の位置を特定することで、取得した前記視線の位置に対応する、前記鏡像内の前記ユーザの顔の部位、または、前記表示画像内の前記ユーザの顔の部位を判定する判定部と
    を有する画像処理装置。
  6. ユーザの鏡像または撮像装置で撮影されるユーザの表示画像に向けられる、当該ユーザの視線の位置を取得し、
    前記鏡像内の前記ユーザの顔の位置、または、前記表示画像内の前記ユーザの顔の位置を特定することで、取得した前記視線の位置に対応する、前記鏡像内の前記ユーザの顔の部位、または、前記表示画像内の前記ユーザの顔の部位を判定する、
    処理をコンピュータが実行する画像処理方法。
JP2019061372A 2019-03-27 2019-03-27 画像処理プログラム、画像処理装置及び画像処理方法 Active JP7346869B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019061372A JP7346869B2 (ja) 2019-03-27 2019-03-27 画像処理プログラム、画像処理装置及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019061372A JP7346869B2 (ja) 2019-03-27 2019-03-27 画像処理プログラム、画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2020160951A true JP2020160951A (ja) 2020-10-01
JP7346869B2 JP7346869B2 (ja) 2023-09-20

Family

ID=72643532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019061372A Active JP7346869B2 (ja) 2019-03-27 2019-03-27 画像処理プログラム、画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP7346869B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09233471A (ja) * 1996-02-27 1997-09-05 Fujitsu Ltd 画像情報圧縮符号化装置
JP2002169637A (ja) * 2000-12-04 2002-06-14 Fuji Xerox Co Ltd ドキュメント表示態様変換装置、ドキュメント表示態様変換方法、記録媒体
JP2011092691A (ja) * 2009-10-02 2011-05-12 Kao Corp 美容支援装置、美容カウンセリング方法および視線追跡データ取得方法
JP2015207060A (ja) * 2014-04-17 2015-11-19 富士通株式会社 情報処理装置、方法及びプログラム
JP2017173455A (ja) * 2016-03-22 2017-09-28 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09233471A (ja) * 1996-02-27 1997-09-05 Fujitsu Ltd 画像情報圧縮符号化装置
JP2002169637A (ja) * 2000-12-04 2002-06-14 Fuji Xerox Co Ltd ドキュメント表示態様変換装置、ドキュメント表示態様変換方法、記録媒体
JP2011092691A (ja) * 2009-10-02 2011-05-12 Kao Corp 美容支援装置、美容カウンセリング方法および視線追跡データ取得方法
JP2015207060A (ja) * 2014-04-17 2015-11-19 富士通株式会社 情報処理装置、方法及びプログラム
JP2017173455A (ja) * 2016-03-22 2017-09-28 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP7346869B2 (ja) 2023-09-20

Similar Documents

Publication Publication Date Title
US10699108B1 (en) Body modeling and garment fitting using an electronic device
US9196093B2 (en) Information presentation device, digital camera, head mount display, projector, information presentation method and non-transitory computer readable medium
US8724845B2 (en) Content determination program and content determination device
US9269157B2 (en) Methods for extracting objects from digital images and for performing color change on the object
US8655053B1 (en) Body modeling and garment fitting using an electronic device
JP4876687B2 (ja) 注目度計測装置及び注目度計測システム
JP5439787B2 (ja) カメラ装置
KR20180100180A (ko) 맞춤화/개인별화된 머리 전달 함수 생성 방법
US8170297B2 (en) Face authentication system and face authentication method
JP7452016B2 (ja) 学習データ生成プログラム、及び学習データ生成方法
JPWO2018047687A1 (ja) 三次元モデル生成装置及び三次元モデル生成方法
JP2019075156A (ja) 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード
WO2014125831A1 (ja) 電子ミラー装置
EP3241151A1 (en) An image face processing method and apparatus
US9218794B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
US20210264684A1 (en) Fitting of glasses frames including live fitting
JP6680207B2 (ja) 視線計測システム、視線計測方法、及びプログラム
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP2007233523A (ja) 非同期カメラ映像を用いた人物位置推定方法及びそのシステム
JP2012022538A (ja) 注目位置推定方法、画像表示方法、注目コンテンツ表示方法、注目位置推定装置および画像表示装置
US20210256747A1 (en) Body measurement device and method for controlling the same
US20230394833A1 (en) Method, system and computer readable media for object detection coverage estimation
JP2012057974A (ja) 撮影対象サイズ推定装置及び撮影対象サイズ推定方法並びにそのプログラム
WO2020032254A1 (ja) 注意対象推定装置及び注意対象推定方法
JP2015230616A (ja) 画像処理方法および画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R150 Certificate of patent or registration of utility model

Ref document number: 7346869

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150