JP2008203916A - 画像処理装置、プログラム及び画像処理方法 - Google Patents

画像処理装置、プログラム及び画像処理方法 Download PDF

Info

Publication number
JP2008203916A
JP2008203916A JP2007035874A JP2007035874A JP2008203916A JP 2008203916 A JP2008203916 A JP 2008203916A JP 2007035874 A JP2007035874 A JP 2007035874A JP 2007035874 A JP2007035874 A JP 2007035874A JP 2008203916 A JP2008203916 A JP 2008203916A
Authority
JP
Japan
Prior art keywords
article
image
image processing
processing apparatus
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007035874A
Other languages
English (en)
Other versions
JP5010937B2 (ja
Inventor
Masahiro Kiyohara
將裕 清原
Hiroshi Shojima
正嶋  博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007035874A priority Critical patent/JP5010937B2/ja
Publication of JP2008203916A publication Critical patent/JP2008203916A/ja
Application granted granted Critical
Publication of JP5010937B2 publication Critical patent/JP5010937B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】マーケティングに直結する購買情報を取得することのできる技術を提供すること。
【解決手段】撮像装置150で撮像された画像から人物の所有する物品画像を情報抽出部122で抽出し、対応付け部123が、抽出した物品画像の特徴量を算出し、算出した特徴量と、特徴量情報記憶領域111に記憶されているモデル物品の特徴量と、を比較して類似するモデル物品を特定して、特定したモデル物品に対応する属性情報を属性情報記憶領域112から抽出して、顧客情報記憶領域113に記憶する。
【選択図】図1

Description

本発明は、人物を撮像した撮像画像から顧客情報を生成する画像処理の技術に関する。
マーケティングを行うために、従来から様々な方法で顧客情報の収集が行われている。
例えば、特許文献1に記載されている技術は、顧客の身長データや顧客の撮像データといった客層データを取得して、取得した客層データから顧客の年令や性別といった種別を判定し、判定した種別に応じた案内データ(POP内容、商品説明内容)を顧客に提示するようにしている。
特開平11−328266号公報
特許文献1に記載の技術では、顧客の身長データと顔の撮像データから客層分析を行うようにされているが、顧客の年令や性別だけでは、その顧客の嗜好、購買意欲、購買力等のマーケティングに直結する購買情報を取得することはできない。
そこで、本発明では、マーケティングに直結する購買情報を取得することのできる技術を提供することを目的とする。
以上の課題を解決するため、本発明では、顧客の所有する物品から当該顧客の嗜好、購買意欲又は購買力等の購買情報を取得する。
例えば、本発明は、人物を撮像した撮像画像から顧客情報を生成する画像処理装置であって、モデル物品と、当該モデル物品の所有者の属性に関する属性情報と、を対応させて記憶する記憶部と、制御部と、を備え、前記制御部は、前記撮像画像から前記人物の所持する物品の物品画像を抽出する処理と、前記物品画像に類似するモデル物品を特定する処理と、特定したモデル物品に対応する属性情報を顧客情報として前記記憶部に記憶する処理と、を行うこと、を特徴とする。
以上のように、本発明によれば、マーケティングに直結する情報を取得することができる。
図1は、本発明の一実施形態である画像処理装置100の概略図である。
図示するように画像処理装置100は、記憶部110と、制御部120と、IF部130と、を備えており、IF部130を介して、センサ160の検知信号の入力と、撮像装置150で撮像された画像の入力と、を受け付ける。
記憶部110は、特徴量記憶領域111と、属性情報記憶領域112と、顧客情報記憶領域113と、を備える。
特徴量記憶領域111には、モデルとなる物品を識別する情報と、当該物品の特徴量を特定する情報と、が記憶される。
本実施形態においては、例えば、図2(特徴量テーブル111aの概略図)に示されるような特徴量テーブル111aが記憶される。
図示するように、特徴量テーブル111aは、画像欄111bと、ID欄111cと、色欄111dと、形状欄111eと、色ヒストグラム欄111fと、R欄111gと、G欄111hと、B欄111iと、を備えている。
画像欄111bには、物品の画像データが格納される。
ID欄111cには、画像欄111bに格納される画像データで特定されるモデル物品を識別するための識別情報(ID番号)が格納される。
色欄111dには、画像欄111bに格納される画像データで特定されるモデル物品の色を特定する情報が格納される。
形状欄111eには、画像欄111bに格納される画像データで特定されるモデル物品の形状を特定する情報が格納される。
ここで、本実施形態においては、モデル物品の形状を特定する情報として、モデル物品の輪郭形状における特徴量c(k)の代表値c(0)、c(1)、c(2)が格納される。なお、輪郭形状における特徴量c(k)の算出方法については後述する。
色ヒストグラム欄111fには、画像欄111bに格納される画像データで特定されるモデル物品のRGB値に対応する色ヒストグラムが格納される。ここでは、赤色部分、青色部分及び緑色部分の各色部分空間における最大頻度の色ヒストグラムが格納される。
R欄111gには、画像欄111bに格納される画像データの物品において、色空間に含まれる画素値を予め赤色、緑色又は青色の三分して、赤色に分類される画素値の内、最も出現頻度の高い画素値を格納する。
G欄111hには、画像欄111bに格納される画像データの物品において、色空間に含まれる画素値を予め赤色、緑色又は青色の三分して、緑色に分類される画素値の内、最も出現頻度の高い画素値を格納する。
B欄111iには、画像欄111bに格納される画像データの物品において、色空間に含まれる画素値を予め赤色、緑色又は青色の三分して、青色に分類される画素値の内、最も出現頻度の高い画素値を格納する。
なお、特徴量テーブル111aは、本実施形態で判定の対象とする物品毎(例えば、服、靴、鞄等)に生成されて記憶されているものとする。
図1に戻り、属性情報記憶領域112には、モデルとなる物品を識別する情報と、当該物品の所有者の属性を特定する情報と、が記憶される。
本実施形態においては、例えば、図3(属性テーブル112aの概略図)に示されているような属性テーブル112aが記憶される。
図示するように、属性テーブル112aは、ID欄112bと、属性欄112cと、を備えている。
ID欄112bには、モデルとなる物品を識別する識別情報(ID番号)が格納される。なお、本欄112bに格納する識別情報(ID番号)と、特徴量テーブル111aのID欄111cに格納する識別情報(ID番号)と、は同じモデル物品において共通のものを使用することで、当該識別情報(ID番号)をキーとして両テーブルを検索することが可能にされている。
属性欄112cには、ID欄112bで特定されるモデル物品の所有者の属性を特定する情報が格納される。
ここで、本実施形態においては、属性欄112cに、性別欄112dと、年令層欄112eと、購買意欲欄112fと、購買傾向欄112gと、が設けられており、これらの属性を特定する。
性別欄112dには、男性欄112hと、女性欄112iと、が設けられており、ID欄112bで特定されるモデル物品の所有者が男性又は女性である確率(%)が、それぞれの欄に格納される。
年令層欄112eには、10代欄112jと、20代欄112kと、30代欄112lと、40代欄112mと、50代欄112nと、60代欄112oと、が設けられており、ID欄112bで特定されるモデル物品の所有者が属する年齢層の確率(%)が、それぞれの欄に格納される。
購買意欲欄112fには、〜1万欄112pと、〜5万欄112qと、以上欄112rと、が設けられており、ID欄112bで特定されるモデル物品の所有者の購買意欲が、0円以上1万円未満の確率(%)が〜1万欄112pに格納され、1万円以上5万円未満の確率(%)が〜5万欄112qに格納され、5万円以上の確率が以上欄112rに格納される。
購買傾向欄112gには、派手欄112sと、渋め欄112tと、が設けられており、ID欄112bで特定されるモデル物品の所有者が、派手なものを嗜好する確率が派手欄112sに格納され、渋めのものを嗜好する確率が渋め欄112tに格納される。
なお、属性欄112cに格納する情報については、各物品の販売時に調べた購入者情報やアンケートに代表されるマーケティング情報から求めるか、あるいは、システム設計者やオペレータの主観的な評価により設定する。
図1に戻り、顧客情報記憶領域113には、後述する対応付け部123で、撮像装置150で撮像された顧客の画像データから抽出された物品の特徴量に類似するモデル物品を特徴量テーブル111aから特定し、特定したモデル物品の所有者の属性を属性テーブル112aから抽出して、抽出した属性を各々のエントリに格納することで集計した情報が記憶される。
本実施形態においては、例えば、図4(顧客テーブル113aの概略図)に示されるような顧客テーブル113aが記憶される。
図示するように、顧客テーブル113aには、時刻欄113bと、人物ID欄113cと、特徴量欄113dと、属性欄113eと、が設けられている。
時刻欄113bには、画像データを取得した日時を特定する情報が格納される。
人物ID欄113cには、撮像装置150で撮像した人物を識別する情報が格納される。
特徴量欄113dには、特徴量テーブル111aで特定されたモデル物品の名称を特定する情報が格納される。
属性欄113eには、属性テーブル112aから抽出した属性を特定する情報が格納される。
図1に戻り、制御部120は、撮像制御部121と、情報抽出部122と、対応付け部123と、を備える。
撮像制御部121は、後述する撮像装置150での撮像処理を制御する。
例えば、図5(単眼カメラ151と遮蔽センサ161a、161bの配置図)に示されているように、店舗の入り口に、発光素子と受光素子からなる遮蔽センサ161a、161bと、単眼カメラ151と、を設定する。
そして、遮蔽センサ161a、161bの間を人物が通過することにより、遮蔽センサ161a、161b間の光が遮蔽されると、遮蔽センサ161a、161bは、検知信号を画像処理装置100に出力する。撮像制御部121は、IF部130を介して、このような検知信号を受信することにより、単眼カメラ151に撮像命令を送出し、当該撮像命令に応じて単眼カメラ151は撮像を行う。
このような場合には、遮蔽センサ161a、161bの検知領域と、単眼カメラ151の撮像領域と、が重なるように設置することで、遮蔽センサ161a、161bの反応があり次第、撮像制御部121は単眼カメラ151に撮像命令を送出する。
あるいは、図6(単眼カメラ151と遮蔽センサ161a、161bの配置図)に示すように、遮蔽センサ161a、161bの検知領域と、単眼カメラ151の撮像領域と、が離れて設置されている場合には、顧客の標準的な歩行速度から逆算して単眼カメラ151の撮像領域内に入る分の時間遅れを考慮して撮像命令を送出する。
なお、カメラは必ずしも1台である必要はなく、顧客の所持品や装身具がよく映るような位置に複数設置してもよい。また、単眼カメラ151の代わりに、ステレオカメラやTOF(Time Of Flight)計測カメラに代表される距離画像取得装置を用いて人物を撮像してもよい。
情報抽出部122は、撮像装置150で撮像された画像データから、人物領域の分離を行い、分離された人物が所持する物品の物品画像を切出す。
人物領域の分離は、例えば、背景差分法やRRF(Radial Reach Filter)を用いて人物領域を検出して分離する。
例えば、固定式のカメラの場合には、予め人物の映りこんでいない背景画像を獲得しておき,この背景画像と比較することにより人物領域を抽出することができる。あるいは、RRF(「Radial Reach Filter(RRF)によるロバストな物体検出」、佐藤雄隆、金子俊一、丹羽義典、山本和彦、電子情報通信学会論文誌D、Vol.J86−D2、No.5,pp.616−624参照)を用いることでも人物領域を検出することができる。
また、稼動型カメラの場合には、カメラが向く方向の環境の画像を背景として獲得しておくことで、前述した背景差分法を適用することができ、あるいは、オプティカルフローを算出し、そのセグメンテーションを行うことにより、人物領域を環境と異なる移動領域として検出することができる。
そして、情報抽出部122は、上述のように抽出された人物領域から、当該人物の所持する物品画像を切り出す。例えば、物品画像の切出しは、テンプレートマッチング法や、肌色領域の抽出により実現できる。
まず、例えば、服装の切出し処理に関して説明する。
服装の切出しは、人物領域を抽出後、領域の相対的な比率を基準に切出すことができる。前述のようにして抽出された人物領域に関して、頭部、上半身、下半身の各領域を、例えば、人物領域の上部から1:3:3の割合に分割する。そして、上半身、下半身の各領域の画像を服装画像として扱う。
次に、人物領域からバッグを切出す処理について説明する。
まず、上述のようにして抽出された人物領域に対して肌色領域抽出を行うことで、顔部および手部を検出する。
そして、連続した時系列の画像において、バッグなどの所持品の移動は、手部の移動と同期している。このため、連続した複数の画像間で、まず手部の移動を追跡し、その移動ベクトルを計算する。
また、同じ画像間で、人物領域内部を適当に分割した局所的な部位(この時点では判別されていないが所持品・上腕・下腕・大腿部等に相当する各部位)の移動ベクトルを、それぞれオプティカルフロー法などを用いて計算する。手部の移動ベクトルとほぼ等しい移動ベクトルを持つ局所的な部位を所持品(バック)の領域として判定する。
また、人物領域から靴を切出す処理について説明する。
上述のようにして配置される撮像装置150において、人物の歩行方向に対して交差する方向(人物の歩行方向に対して垂直であることが望ましいが、このような歩行方向に対して、60°〜120°の範囲)から撮像した映像から、靴領域を切出す。
靴領域は、人物領域の抽出と同様、予め靴が映りこんでいない映像を背景画像として撮像しておき、靴がカメラ視野内に入った状態の画像との差分をとることで、靴と人物の脚部を抽出することができる。一般に人間が通常歩行時には、各脚の接地時間が0.3秒程度と言われており、この接地中は、靴は動かず、脚部のみが靴部を中心に回転運動を行う。従って、背景との差分があり、かつ、連続したフレームにおいて一定時間動かない領域を切出すことで、靴領域とその輪郭線を判定できる。
対応付け部123は、情報抽出部122で抽出された物品の画像データから特徴量を算出し、算出した特徴量と類似する特徴量を有するモデル物品を特徴量テーブル111aより特定し、特定したモデル物品の所有者の属性を属性テーブル112aから抽出して、顧客テーブル113aに格納する。
ここで、本実施形態においては、対応付け部123は、類似する特徴量を有するモデル物品を特定する際に、例えば、物品の輪郭形状、色ヒストグラム、テクスチャ特徴量(「Textural feature for image classification」、Haralick.R.M.、K.Shanmugam、I.Dinstein、IEEE Transactions On Systems、Man、And Cybernetics、SMC−3(6)、pp.610−621参照)などの画像特徴量を利用し、類似性の評価には、例えば、NN(ニューラルネットワーク)、SVM(サポートベクタマシン)、SOM(自己組織化マップ)を利用して分類することができる。
通常、フリーフロー環境下では、カメラと撮像対象との相対関係が変化するため、撮像対象が画像上で見かけ上大きく変形し、画像上で類似性を評価することが困難である。しかし、図5に示すように、通路や出入口の側方にカメラを設置することにより、靴や鞄のような所持品や服装をほぼ同一方向から撮像することが可能である。このようにほぼ同一方向から撮像された画像に対し、見かけの変動に対して安定した特徴量を算出することで、類似性の評価が可能になる。この見かけの変動に対して安定した特徴量として、ここでは、輪郭形状、色ヒストグラム、テクスチャ特徴量を用いる。
輪郭形状の特徴量に関して図7(輪郭形状の特徴量の算出を説明するための概略図)を用いて説明する。
まず、前述した人物抽出と同様に対象領域を抽出しておく。図7に示すように、物品の領域境界部を適当な1点(図7では、矢示部)を基準点(始点)とする。平面上の連続曲線Cを、C上の基準点からの長さsをパラメタとして、(1)式のように表現する。
Figure 2008203916
ここで、Sは、連続曲線Cの全長である。
この曲線Cの細かい角度変化をノイズとして除外し、大局的な角度変化のみを取り出すために、曲線Cの角度情報にローパスフィルタを適用する。
そして、連続曲線Cを複素平面上に離散化して、折れ線に近似する。この折れ線は(2)式のように表現できる。
Figure 2008203916
次に、離散化した各点近傍での折れ線の角度を、偏角関数a(j)及び全曲率関数θ(j)として(3)式及び(4)式のように記述する。
Figure 2008203916
Figure 2008203916
これを用いて,輪郭形状の特徴量c(k)を(5)式のように定義する。
Figure 2008203916
この特徴量c(k)は、低次の項が輪郭の低周波成分を、高次の項が輪郭の高周波成分を表している。
このため、c(0)、c(1)、・・・、c(m−1)のm個の項を適宜選択することにより、対象の解像度を概形から詳細形状まで変化させることができる。
なお、a(j)及びθ(j)は、輪郭形状の局所的な曲率を表しており、c(k)はそれに対する変化率がどのように変わっているかを特徴付ける量(輪郭特徴量)になっている。
例えば、c(0)=一定の値、c(n)=0(n≧1)のとき、輪郭形状は円になっており、輪郭上に高周波の曲率の変化がない形状を表している。
一方、例えば、c(0)=一定の値、c(m)=一定の値、c(n)=0(n≠0、m)のとき、円を変形した形状となる。
従って、このc(k)のkがどの値のときにc(k)がどのような値を取るかを比較することで、形状比較を行うことができる。
ここで、本実施形態においては、輪郭形状の特徴量c(k)のうち、例えばc(0)、c(1)、c(2)を用いることで、形状に関してノイズを除去し見かけの変形に対して安定した類似性の評価ができる。
例えば、図7において、輪郭線上の任意の一点(今回は矢示点)から右回りに輪郭線追跡を行う。
例えば、座標軸を右向き、下向きに正とおくと、輪郭線は次のように表記される。
S=29
x(s)={1,2,3,4,5,6,7,8,9,10,11,12,13,13,12,11,10,9,8,7,6,5,4,3,2,1,0,0,0}
y(s)={1,1,1,1,0,0,1,1,2,2,2,2,2,3,4,4,5,5,5,5,5,5,5,5,5,5,4,3,2}
これに対し、(2)〜(5)述の式を当てはめると、
c(0)=0.113516、c(1)=−0.791462、c(2)=0.797065、c(3)=0.797065、・・・などが計算される。この数値は輪郭線の概形の成分を表したものであり、他の画像に対して計算されたc(k)の値が上記の値と近ければ類似した形状を持つと判断できる。
ここで、モデル物品となる靴の画像に対して、c’(k)が次のように計算されているとする。
c’(0)=0.113535、c’(1)=−0.791458、c’(2)=0.797033、c’(3)=0.126001、・・・。
この場合、例えば、c(k)とc’(k)の差分値に対して予め閾値を定めておくことにより、c(0)とc’(0)とは類似、c(1)とc’(1)とは類似、c(2)とc’(2)とは類似、c(3)とc’(3)とは非類似、と判断でき、このような判断では、概形状は似ているがシルエットの細かい凹凸が異なるということが分かる。
この点、どこまでのmを比較評価に使用するかは実験的に決めるが、画像の大きさが200×150[pixel]の場合、例えばm=30程度を使えばよい。
次に、色ヒストグラムの特徴量に関して、図8(色空間と部分空間を説明するための概略図)を用いて説明する。
まず、予め色空間を適切な部分空間に分割することで、赤色部分、青色部分、緑色部分に分割しておく。この色空間の分割は、図8に示すように、HSV表色系における色空間の黒色と白色を表す対角線を通る直線170を、各部分空間171、172、173が境界として共有するように分割する。これにより、撮像時に照明の明度変化が生じても、入力画像中の同一部分のピクセルが、同じ部分空間に属するようになるため、照明環境の変動に対して安定した類似性の評価ができる。なお、ここでは、部分空間171が青色領域で、部分空間172が緑色領域で、部分空間173が赤色領域となる。
次に、上述した人物抽出を行い、上述のように物品部分の領域を抽出する。そして、物品部分の領域内部の各画素が前述の色空間において、どの部分空間に属するかの判定をし、その頻度をカウントしてヒストグラムを計算し、各頻度値を対象領域全体の面積で割ることで正規化する。
これにより、撮像時の対象とカメラとの距離により生じる、見かけ上の大きさの変化に対して安定した類似性の評価ができる。
また、色に関しては、物品部分の領域内部の画像領域に含まれる色成分は、例えば、赤(R)、緑(G)、青(B)の各要素の値で表すことができる。黒色だと(R,G,B)=(0,0,0)、白色だと(R,G,B)=(255,255,255)となる。例えば、ある茶色の画素値は(R,G,B)=(200,10,15)と表され、図8における色部分空間173に含まれる。
例えば、茶色の革靴の場合、靴領域に対応する画像領域中の各画素に対し、そのRGB値に対応する色部分空間を計算し、色ヒストグラムを計算すると、色部分空間173に対応する区間の頻度が大きくなり、色部分空間171、色部分空間172に対応する区間の頻度が小さくなる。
このことから、色ヒストグラムにおける色空間173の頻度が大きく、画像領域は赤系統であることが分かる。また、より細かい分類を行うために、代表色として最も頻度の高いRGB値を記録しておく。
テクスチャ特徴量に関しては、例えば統計的テクスチャ特徴量を計算することで得ることができる。この特徴量は、対象の大きさと向きによらない不偏な特徴量である。具体的な計算方法は「Textural feature for image classification」、Haralick.R.M.、K.Shanmugam、I.Dinstein、IEEE Transactions On Systems、Man、And Cybernetics、SMC−3(6)、pp.610−621に詳しく記載されている。
そして、対応付け部123は、撮像装置150からの入力画像より抽出された物品の特徴量を算出し、算出した特徴量に類似するモデル物品を特徴量テーブル111aから特定する。
類似性の評価には、例えば、NN(ニューラルネットワーク)、SVM(サポートベクタマシン)、SOM(自己組織化マップ)を利用し、予め属性データベースS104中に含まれる画像を物品毎に分類しておくことで、撮像装置150からの入力画像より抽出された物品がどの分類に属するかを判定し、特徴量テーブル111aを検索することができる。
例えば、形状の特徴量に関して、c(0)、c(1)、・・・、c(t−1)のt個の値と、特徴量テーブル111aの形状欄111eに格納されているそれぞれ値と、の差を算出し、算出した差分値が全て閾値以下であれば同種類(類似)とみなす。形状において同種類(類似)と判断されるモデル物品が特徴量テーブル111aに複数格納されていれば、色ヒストグラムに関しての絞込みを行う。
色ヒストグラムに関しては、特徴量テーブル111aの色ヒストグラム欄111fに格納されている色部分空間の最大頻度が同じ種類であるかどうかを調べ、対象の色味の系統が同種類かどうかを判定する。ここでも、各値の差分値が特定の閾値以下である場合には同種類(類似)と判断することとなる。
色ヒストグラムを用いた判定においても同種類(類似)のモデル物品が複数あれば、色の最頻値に関しての絞込みを行う。色の最頻値に関して、特徴量テーブル111a中で入力画像にもっとも類似したデータを探索する。このときの誤差は(6)式のように、各画素値(最頻値)の差分値を二乗して各々加算することで計算できる。
Figure 2008203916
ここで、R、G、Bは入力画像の最頻の代表色における画素値、R’、G’、B’は特徴量テーブル111aのR欄111g、G欄111h及びB欄111iの値である。上記の誤差が最小となるデータがもっとも類似しているデータである。
以上の手順で、入力画像に最も類似したモデル物品の識別情報をID欄111cから特定する。
そして、対応付け部123は、特定したモデル物品の識別情報に対応する属性情報を属性テーブル112aから抽出して、顧客情報を生成し、顧客情報記憶領域113の顧客テーブル113aに新たなエントリを生成して、生成した顧客情報を格納する。
ここで、顧客テーブル113aの時刻欄113bには、撮像装置150から撮像した日時が撮像した画像とともに送られてくる場合には、送られてきた日時を、このような日時が送られてこない場合には、画像処理装置100が撮像装置150より撮像画像を受信した日時、を格納する。
人物ID欄113cには、撮像装置150において抽出した人物毎に識別情報を割り振り、当該人物の所持物品には同じ識別情報を格納する。
特徴量欄113dには、特徴量を特定する際に使用された特徴量テーブル111aで特定されるモデル物品の名称が格納される。
このようにして計算された属性は、1人の人物に対して、複数の物品画像の要素があり、それぞれ異なった属性が算出される可能性がある。その場合、属性値に適切な重み係数を掛け合わせ、線形結合することにより最終的な属性を計算しても良い。
例えば、服装画像からの性別推定結果emax、clothの信頼性wclothが、靴画像からの性別推定結果emax、shoueの信頼性wshoueよりも1.5倍高いことが予備実験から判っている場合、最終的な性別に関する属性値emaxを(7)式のように算出する。この重み係数は、物品と属性の組合せによって個別に設定できるものとする。
Figure 2008203916
また、このような算出を行わずに、予め店舗に来店する顧客の傾向が判っている場合には、ベイズ推定の枠組みで顧客の性別および年齢層、購買意欲の強さ、購買商品傾向などの属性を、顧客毎に計算することができる。
さらに、このような算出を行わずに、複数の属性値をそのまま顧客テーブル113aに格納してもよい。
以上に記載した画像処理装置100は、例えば、図9(コンピュータ180の概略図)に示すような、CPU181と、メモリ182と、HDD等の外部記憶装置183と、CD-ROMやDVD-ROM等の可搬性を有する記憶媒体184から情報を読み出す読取装置185と、キーボードやマウスなどの入力装置186と、ディスプレイなどの出力装置187と、通信ネットワークに接続するためのNIC(Network Interface Card)等の通信装置188と、を備えた一般的なコンピュータ180で実現できる。
例えば、記憶部110は、外部記憶装置183により実現可能であり、制御部120は、外部記憶装置183に記憶されている所定のプログラムをメモリ182にロードしてCPU181で実行することで実現可能であり、IF部130は、通信装置188で実現可能である。
この所定のプログラムは、読取装置185を介して記憶媒体184から、あるいは、通信装置188を介してネットワークから、外部記憶装置183にダウンロードされ、それから、メモリ182上にロードされてCPU181により実行されるようにしてもよい。また、読取装置185を介して記憶媒体184から、あるいは、通信装置188を介してネットワークから、メモリ182上に直接ロードされ、CPU181により実行されるようにしてもよい。
以上のように構成される画像処理装置100での処理について、図10に示すフローチャートを用いて説明する。
まず、画像処理装置100の画像制御部121は、IF部130を介して、センサ160の検知信号に応じて撮像指令を撮像装置150に送出して、撮像装置150から画像を取得する(S10)。なお、撮像装置150での撮像は、常時撮像し続けても構わないが、人物の入店とタイミングを合わせて撮像することにより、人物の映っていない画像を処理する計算コストを省き、その後の画像処理の安定性を高めることができる。
次に、画像処理装置100の情報抽出部122は、取得した画像から人物領域の分離を行う(S11)。人物領域の分離は、例えば、背景差分法やRRFを用いて人物領域の検出を行うことができる。
そして、画像処理装置100の情報抽出部122は、分離した人物領域から物品画像を切り出す(S12)。物品の切り出しは、テンプレートマッチング法や、肌色領域抽出法等を使用することにより実現できる。
そして、画像処理装置100の対応付け部123は、切り出した物品画像から特徴量を算出する(S13)。
次に、画像処理装置100の対応付け部123は、特徴量を算出した物品の特徴量テーブル111aから類似する特徴量を有するモデル物品のIDを特定して、当該IDに対応する属性情報を属性テーブル112aから抽出する(S14)。なお、類似性を計測するための特徴として、例えば、輪郭形状、色ヒストグラム、テクスチャ特徴量等の画像特徴量を利用し、類似性の評価には、例えば、NN(ニューラルネットワーク),SVM(サポートベクタマシン),SOM(自己組織化マップ)を利用することができる。
そして、画像処理装置100の対応付け部123は、顧客テーブル113aに新たなエントリを生成して、抽出した属性情報を登録する(S15)。
以上のような顧客情報を蓄積することで、例えば、店舗の入場者の所有する物品の画像データから、当該入場者の嗜好性、購買意欲、購買力等の情報を取得することができるため、これらの情報をマーケティングに利用することができる。特に、人の所有物にはその人の嗜好性や購買力が直接現れるので、有益なマーケティング情報とすることができる。
以上に記載した実施形態においては、人物の所有する物品のみから属性情報を取得したが、このような態様に限定されず、例えば、モデルとなる人の顔の特徴量を特定する情報を特徴量情報記憶領域111に記憶しておき、当該モデルとなる人の属性情報を属性情報記憶領域112に記憶しておくことで、上述と同様の方法で、人の顔画像からも属性情報を取得することができる。
また、以上に記載した特徴量テーブル111には、物品の形状と色彩から特定される特徴量が格納されているが、このような態様に限定されず、例えば、物品の模様や大きさ等から定まる特徴量を格納することも可能である。
さらに、属性情報記憶領域112には、人の属性として、性別、年齢層、購買意欲、購買傾向が特定されているが、このような態様に限定されず、他の属性を特定してもよい。
また、以上に記載した実施形態においては、特徴量テーブル111aと属性テーブル112aを別々のテーブルに格納したが、これらを一つのテーブルにまとめることも可能である。また、特徴量テーブル111aには、モデル物品の特徴量が既に算出されているが、このような態様に限定されずに、特徴量テーブル111aに画像データとIDのみを格納しておき、格納された画像データから特徴量をその都度算出することも可能である。
また、図11(画像処理システム200の概略図)に示されている画像処理システム200のように、画像処理装置100で特定した属性情報をネットワーク190を介して接続されている蓄積サーバ191に蓄積するようにすることもできる。このような場合、蓄積サーバ191に顧客情報記憶領域113と同様の記憶領域を設けておけばよい。
このように、蓄積サーバ191に属性情報を送信するようにすることで、例えば、画像処理装置100及び撮像装置150を複数の箇所に設置することで、複数の箇所におけるマーケティング情報を同時に取得することができるようになる。このような場合には、画像を取得した撮像装置150を識別する情報を画像処理装置100から蓄積サーバ191に送信することで、蓄積された属性情報がいずれの箇所で取得されたものかを特定することができるようにしておくことが望ましい。
さらに、以上に記載した実施形態において、店舗内の商品配置に関する商品配置情報を記憶部110に記憶しておき、制御部120において人物の購買意図を推定して、当該購買意図を記憶部110に記憶するようにしてもよい。
例えば、店舗の複数の箇所に撮像装置150を設置しておき、制御部120において、撮像装置150で撮像されている人物の動きを追跡し、滞留や往復等の動作が観測された場合に、滞留や往復等の動作が行われた位置に配置されている商品への購買意図が高いと推定する。
このようにして、購買意欲が高いと思われる商品を、顧客情報記憶領域113の顧客テーブル113aの人物IDに対応させて記憶することで、店舗内商品棚の利用効率などのマーケティング分析を行うことができるようになる。
以上に記載した実施形態においては、物品として、靴を例にして説明しているが、このような態様に限定されず、例えば、鞄、バック、リュック、傘、帽子、指輪、ネックレス、ブローチ、上着、シャツ、ズボン、スカート又はネクタイから属性情報を取得することができるようにしてもよい。
また、属性情報については、体型、嗜好、関心又は社会的地位等を含めることも可能である。
画像処理装置の概略図。 特徴量テーブルの概略図。 属性テーブルの概略図。 顧客テーブルの概略図。 単眼カメラと遮蔽センサの配置図。 単眼カメラと遮蔽センサの配置図。 輪郭形状の特徴量の算出を説明するための概略図。 色空間と部分空間を説明するための概略図。 コンピュータの概略図。 画像処理装置での処理を示すフローチャート。 画像処理システムの概略図。
符号の説明
100 画像処理装置
110 記憶部
111 特徴量情報記憶領域
112 属性情報記憶領域
113 顧客情報記憶領域
120 制御部
121 撮像制御部
122 情報抽出部
123 対応付け部
150 撮像装置

Claims (17)

  1. 人物を撮像した撮像画像から顧客情報を生成する画像処理装置であって、
    モデル物品と、当該モデル物品の所有者の属性に関する属性情報と、を対応させて記憶する記憶部と、制御部と、を備え、
    前記制御部は、
    前記撮像画像から前記人物の所持する物品の物品画像を抽出する処理と、
    前記物品画像に類似するモデル物品を特定する処理と、
    特定したモデル物品に対応する属性情報を顧客情報として前記記憶部に記憶する処理と、
    を行うこと、
    を特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記制御部は、
    前記物品画像から得られる特徴量と、前記モデル物品の特徴量と、が予め定められた閾値以内である場合には、類似と判断すること、
    を特徴とする画像処理装置。
  3. 請求項2に記載の画像処理装置であって、
    前記特徴量は、物品の輪郭形状の特徴量、色ヒストグラムの特徴量及びテクスチャ特徴量の少なくともいずれか一つであること、
    を特徴とする画像処理装置。
  4. 請求項3に記載の画像処理装置であって、
    前記制御部は、
    前記物品画像における物品の輪郭形状を近似した曲線と、前記も出る物品の輪郭形状を近似した曲線と、を比較して、前記輪郭形状の特徴量が類似か否かを判断すること
    を特徴とする画像処理装置。
  5. 請求項3に記載の画像処理装置であって、
    前記制御部は、
    前記物品画像において最も出現頻度の高い色のヒストグラムと、モデル物品において最も出現頻度の高い色のヒストグラムと、を比較して、色ヒストグラムの特徴量が類似か否かを判断すること、
    を特徴とする画像処理装置。
  6. 請求項3に記載の画像処理装置であって、
    前記制御部は、
    前記物品画像において最も出現頻度の高い色の画素値と、モデル物品において最も出現頻度の高い色の画素値と、を比較して、色ヒストグラムの特徴量が類似か否かを判断すること、
    を特徴とする画像処理装置。
  7. 請求項1に記載の画像処理装置であって、
    前記物品は、靴、鞄、バック、リュック、傘、帽子、指輪、ネックレス、ブローチ、上着、シャツ、ズボン、スカート及びネクタイの少なくともいずれか一つを含むこと、
    を特徴とする画像処理装置。
  8. 請求項1に記載の画像処理装置であって、
    前記属性情報は、
    性別、年令、体型、嗜好、購買意欲、購買傾向、関心及び社会的地位の少なくともいずれか一つを含むこと、
    を特徴とする画像処理装置。
  9. コンピュータを、
    人物を撮像した撮像画像から顧客情報を生成する画像処理装置として機能させるプログラムであって、
    前記コンピュータを、
    モデル物品と、当該モデル物品の所有者の属性に関する属性情報と、を対応させて記憶する記憶手段、
    制御手段、として機能させ、
    前記制御手段は、
    前記撮像画像から前記人物の所持する物品の物品画像を抽出する処理と、
    前記物品画像に類似するモデル物品を特定する処理と、
    特定したモデル物品に対応する属性情報を顧客情報として前記記憶部に記憶する処理と、
    を行うこと、
    を特徴とするプログラム。
  10. 請求項9に記載のプログラムであって、
    前記制御手段は、
    前記物品画像から得られる特徴量と、前記モデル物品の特徴量と、が予め定められた閾値以内である場合には、類似と判断すること、
    を特徴とするプログラム。
  11. 請求項10に記載のプログラムであって、
    前記特徴量は、物品の輪郭形状の特徴量、色ヒストグラムの特徴量及びテクスチャ特徴量の少なくともいずれか一つであること、
    を特徴とするプログラム。
  12. 請求項11に記載のプログラムであって、
    前記制御手段は、
    前記物品画像における物品の輪郭形状を近似した曲線と、前記も出る物品の輪郭形状を近似した曲線と、を比較して、前記輪郭形状の特徴量が類似か否かを判断すること
    を特徴とするプログラム。
  13. 請求項11に記載のプログラムであって、
    前記制御手段は、
    前記物品画像において最も出現頻度の高い色のヒストグラムと、モデル物品において最も出現頻度の高い色のヒストグラムと、を比較して、色ヒストグラムの特徴量が類似か否かを判断すること、
    を特徴とするプログラム。
  14. 請求項11に記載のプログラムであって、
    前記制御手段は、
    前記物品画像において最も出現頻度の高い色の画素値と、モデル物品において最も出現頻度の高い色の画素値と、を比較して、色ヒストグラムの特徴量が類似か否かを判断すること、
    を特徴とする画像処理装置。
  15. 請求項9に記載のプログラムであって、
    前記物品は、靴、鞄、バック、リュック、傘、帽子、指輪、ネックレス、ブローチ、上着、シャツ、ズボン、スカート及びネクタイの少なくともいずれか一つを含むこと、
    を特徴とするプログラム。
  16. 請求項9に記載のプログラムであって、
    前記属性情報は、
    性別、年令、体型、嗜好、購買意欲、購買傾向、関心及び社会的地位の少なくともいずれか一つを含むこと、
    を特徴とするプログラム。
  17. 人物を撮像した撮像画像から顧客情報を生成する画像処理装置であって、
    モデル物品と、当該モデル物品の所有者の属性に関する属性情報と、を対応させて記憶する記憶部と、制御部と、を備える画像処理装置において人物を撮像した撮像画像から顧客情報を生成する画像処理方法であって、
    前記制御部が、前記撮像画像から前記人物の所持する物品の物品画像を抽出する過程と、
    前記制御部が、前記物品画像に類似するモデル物品を特定する過程と、
    前記制御部が、特定したモデル物品に対応する属性情報を顧客情報として前記記憶部に記憶する過程と、
    を備えること、
    を特徴とする画像処理方法。
JP2007035874A 2007-02-16 2007-02-16 画像処理装置、プログラム及び画像処理方法 Expired - Fee Related JP5010937B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007035874A JP5010937B2 (ja) 2007-02-16 2007-02-16 画像処理装置、プログラム及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007035874A JP5010937B2 (ja) 2007-02-16 2007-02-16 画像処理装置、プログラム及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2008203916A true JP2008203916A (ja) 2008-09-04
JP5010937B2 JP5010937B2 (ja) 2012-08-29

Family

ID=39781402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007035874A Expired - Fee Related JP5010937B2 (ja) 2007-02-16 2007-02-16 画像処理装置、プログラム及び画像処理方法

Country Status (1)

Country Link
JP (1) JP5010937B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266964A (ja) * 2009-05-12 2010-11-25 Canon Inc 画像検索装置及びその制御方法並びにプログラム
JP2011100458A (ja) * 2009-11-09 2011-05-19 Palo Alto Research Center Inc 商品に対する消費者の購買嗜好を収集するためのコンピュータにより実施される方法
WO2013147003A1 (ja) * 2012-03-30 2013-10-03 日本電気株式会社 デジタルサイネージシステム、デジタルサイネージ、物品情報提示方法及びプログラム
JPWO2015186393A1 (ja) * 2014-06-03 2017-04-20 ソニー株式会社 情報処理装置、情報提示方法、プログラム、およびシステム
JP2018084890A (ja) * 2016-11-22 2018-05-31 サイジニア株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019164421A (ja) * 2018-03-19 2019-09-26 株式会社リコー 画像検索装置、印刷物、画像検索方法及び画像検索プログラム
WO2019182068A1 (ja) * 2018-03-22 2019-09-26 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体
JP2019197430A (ja) * 2018-05-10 2019-11-14 大日本印刷株式会社 情報処理装置、情報処理方法、プログラム及び情報処理システム
US10592551B2 (en) 2016-06-16 2020-03-17 Optim Corporation Clothing information providing system, clothing information providing method, and program
JP2020173780A (ja) * 2019-04-11 2020-10-22 富士通株式会社 歩行者物品検出装置及び方法、電子機器
JP2020535498A (ja) * 2017-08-28 2020-12-03 チンタオ ハイアール ウォッシング マシーン カンパニー リミテッド 着用物品の3dモデル構築システム及び方法
JP2020536298A (ja) * 2017-08-28 2020-12-10 チンタオ ハイアール ウォッシング マシーン カンパニー リミテッド 着用物品情報収集システム及び方法
KR20210060970A (ko) * 2019-11-19 2021-05-27 주식회사 코이노 인공지능 기반 온오프라인 연결 사용자 인터랙션을 제공하는 사이니지 통합 관리 시스템 및 그 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092023A (ja) * 2000-09-14 2002-03-29 Nippon Telegr & Teleph Corp <Ntt> 情報提供装置および方法と情報提供プログラムを記録した記録媒体
JP2004054376A (ja) * 2002-07-17 2004-02-19 Japan Science & Technology Corp グループ属性推定方法及びグループ属性推定装置
JP2004348618A (ja) * 2003-05-26 2004-12-09 Nec Soft Ltd 顧客情報収集管理方法及びそのシステム
JP2006331132A (ja) * 2005-05-26 2006-12-07 Matsushita Electric Works Ltd ドレッシングシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092023A (ja) * 2000-09-14 2002-03-29 Nippon Telegr & Teleph Corp <Ntt> 情報提供装置および方法と情報提供プログラムを記録した記録媒体
JP2004054376A (ja) * 2002-07-17 2004-02-19 Japan Science & Technology Corp グループ属性推定方法及びグループ属性推定装置
JP2004348618A (ja) * 2003-05-26 2004-12-09 Nec Soft Ltd 顧客情報収集管理方法及びそのシステム
JP2006331132A (ja) * 2005-05-26 2006-12-07 Matsushita Electric Works Ltd ドレッシングシステム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266964A (ja) * 2009-05-12 2010-11-25 Canon Inc 画像検索装置及びその制御方法並びにプログラム
JP2011100458A (ja) * 2009-11-09 2011-05-19 Palo Alto Research Center Inc 商品に対する消費者の購買嗜好を収集するためのコンピュータにより実施される方法
WO2013147003A1 (ja) * 2012-03-30 2013-10-03 日本電気株式会社 デジタルサイネージシステム、デジタルサイネージ、物品情報提示方法及びプログラム
JPWO2013147003A1 (ja) * 2012-03-30 2015-12-14 日本電気株式会社 デジタルサイネージシステム、デジタルサイネージ、物品情報提示方法及びプログラム
JPWO2015186393A1 (ja) * 2014-06-03 2017-04-20 ソニー株式会社 情報処理装置、情報提示方法、プログラム、およびシステム
US10592551B2 (en) 2016-06-16 2020-03-17 Optim Corporation Clothing information providing system, clothing information providing method, and program
JP2018084890A (ja) * 2016-11-22 2018-05-31 サイジニア株式会社 情報処理装置、情報処理方法、およびプログラム
JP2020535498A (ja) * 2017-08-28 2020-12-03 チンタオ ハイアール ウォッシング マシーン カンパニー リミテッド 着用物品の3dモデル構築システム及び方法
JP2020536298A (ja) * 2017-08-28 2020-12-10 チンタオ ハイアール ウォッシング マシーン カンパニー リミテッド 着用物品情報収集システム及び方法
JP2019164421A (ja) * 2018-03-19 2019-09-26 株式会社リコー 画像検索装置、印刷物、画像検索方法及び画像検索プログラム
JP7095335B2 (ja) 2018-03-19 2022-07-05 株式会社リコー 画像検索装置、印刷物、画像検索方法及び画像検索プログラム
WO2019182068A1 (ja) * 2018-03-22 2019-09-26 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体
JP2019168817A (ja) * 2018-03-22 2019-10-03 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
JP7054444B2 (ja) 2018-03-22 2022-04-14 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
JP2019197430A (ja) * 2018-05-10 2019-11-14 大日本印刷株式会社 情報処理装置、情報処理方法、プログラム及び情報処理システム
JP7102920B2 (ja) 2018-05-10 2022-07-20 大日本印刷株式会社 情報処理装置、情報処理方法、プログラム及び情報処理システム
JP2020173780A (ja) * 2019-04-11 2020-10-22 富士通株式会社 歩行者物品検出装置及び方法、電子機器
JP7434914B2 (ja) 2019-04-11 2024-02-21 富士通株式会社 歩行者物品検出装置及び方法、電子機器
KR20210060970A (ko) * 2019-11-19 2021-05-27 주식회사 코이노 인공지능 기반 온오프라인 연결 사용자 인터랙션을 제공하는 사이니지 통합 관리 시스템 및 그 방법
KR102278693B1 (ko) * 2019-11-19 2021-07-16 주식회사 코이노 인공지능 기반 온오프라인 연결 사용자 인터랙션을 제공하는 사이니지 통합 관리 시스템 및 그 방법

Also Published As

Publication number Publication date
JP5010937B2 (ja) 2012-08-29

Similar Documents

Publication Publication Date Title
JP5010937B2 (ja) 画像処理装置、プログラム及び画像処理方法
US10339706B2 (en) Method and apparatus for estimating body shape
JP7039409B2 (ja) 映像解析装置、人物検索システムおよび人物検索方法
JP4198951B2 (ja) グループ属性推定方法及びグループ属性推定装置
US8908927B2 (en) Automatic method and system for identifying healthiness of a plant
JP5728406B2 (ja) 衣服画像処理システム、衣服画像処理方法、プログラム
JP5959093B2 (ja) 人物検索システム
JP6500374B2 (ja) 画像処理装置及び画像処理プログラム
Halstead et al. Locating people in video from semantic descriptions: A new database and approach
JP2010084263A (ja) カメラ装置
JP2010262425A (ja) 衣服を認識および分類するためのコンピュータ実行方法
KR20170016578A (ko) 의류 피팅 시스템 및 의류 피팅 시스템의 동작 방법
Miura et al. SNAPPER: fashion coordinate image retrieval system
JP6090162B2 (ja) 部位分離位置抽出装置、プログラム、方法
JP2010015472A (ja) 歩行者性別判定装置、歩行者性別判定方法、歩行者性別判定プログラムおよびその記録媒体
JP2017130061A (ja) 画像処理システム、画像処理方法およびプログラム
JP6813039B2 (ja) 画像処理装置及び画像処理プログラム
JP2020098474A (ja) 属性決定装置、属性決定システム、属性決定方法、プログラムおよび記録媒体
Xia Predict 3D body measurements with 2D images
JP7276535B1 (ja) 情報処理プログラム、情報処理方法、および情報処理装置
JP5706995B2 (ja) 靴画像処理システム、靴画像処理方法、プログラム
US20240169694A1 (en) Method and server for classifying apparel depicted in images and system for image-based querying
Kart et al. Web Based Digital Image Processing Tool for Body Shape Detection
Gahalout et al. Person Identity and Gender Estimation Using Gait Biometrics: A Review
Zavan et al. Nose pose estimation in the wild and its applications on nose tracking and 3d face alignment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120604

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150608

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees