JP6529314B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP6529314B2
JP6529314B2 JP2015080449A JP2015080449A JP6529314B2 JP 6529314 B2 JP6529314 B2 JP 6529314B2 JP 2015080449 A JP2015080449 A JP 2015080449A JP 2015080449 A JP2015080449 A JP 2015080449A JP 6529314 B2 JP6529314 B2 JP 6529314B2
Authority
JP
Japan
Prior art keywords
image
user
database
processing apparatus
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015080449A
Other languages
English (en)
Other versions
JP2016200969A (ja
Inventor
要 冨手
要 冨手
優和 真継
優和 真継
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015080449A priority Critical patent/JP6529314B2/ja
Publication of JP2016200969A publication Critical patent/JP2016200969A/ja
Application granted granted Critical
Publication of JP6529314B2 publication Critical patent/JP6529314B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、ユーザに個人嗜好性を尋ねる画像を提示し、個人嗜好性を学習する技術に関する。
近年のデジタルカメラ等の撮像装置は連写性能が向上し、またメモリーなどの記憶媒体の大容量化に伴い、個人であっても収集する画像枚数が飛躍的に増加している。その結果、大量の画像から好みの画像を選択する作業は、ユーザに負担を強いる作業になってきている。
このような点に対して、特許文献1のように、ユーザによる大量の画像から所望の画像を選択する作業を簡略化するための方法が提案されている。特許文献1の方法では、ユーザが登場人物の優先順位とその登場人物の好みの表情とを予めデータベースに登録し、それらの情報から画像の推薦度を計算して、ユーザが所望するであろう画像を選別し表示するようにしている。
特開2013−196417号公報
P.Viola and M.Jones(2001)."Rapid Object Detection using a Boosted Cascade of Simple Features",IEEE Conference on Computer Vision and Pattern Recognition. M.Turk and A.Pentland,"Eigenfaces for recognition",Journal of Cognitive Neuroscience 3,pp.71−86 M.Eckhardt et al.(2009),"Towards Practical Facial Feature Detection",International Journal of Pattern Recognition and Artificial Intelligence Vol.23,No.3(2009)379−400. Gwen Littlewort et al.,"The Computer Expression Recognition Toolbox(CERT)",IEEE Conference on Automatic Face and Gesture Recognition,2011. P.Ekman and W.Friesen,"Facial Action Coding System: A Technique for the Measurement of Facial Movement",Consulting Psychologists Press,Palo Alto,1978. 高野博幸,出口光一郎,"輪郭によるフェイスアライメントにおける姿勢変化への対応のための顔輪郭の利用について",情報処理学会研究報告.CVIM,2012−CVIM−183(11),1−8,2012−08−26 J.Saragih,S.Lucey,and J.Cohn,"Face Alignment through Subspace Constrained Mean−Shifts",IEEE International Conference on Computer Vision(ICCV),2009. Wei Luoら,"Content−based photo quality assessment",IEEE Conference on Computer Vision,(Poster,ICCV 2011). 猪俣 拓利,山本 俊太,稲葉 善典,赤松 茂,"3次元モーフィングモデルによる顔表情生成:主成分パラメータによる表情生成への指針",電子情報通信学会技術研究報告.MVE,マルチメディア・仮想環境基礎 110(457),95−100,2011−02−28
しかしながら、特許文献1の方法では、ユーザが登場人物の好みの表情を点数等を用いてデータベースに登録する必要があった。しかしながら、微妙な表情の変化等に対して、ユーザの好み、嗜好性を正確に反映させるのは難しいという問題があった。
本発明は、画像から抽出された特徴量と当該画像に対する良否との良否関係を対応付けて記憶するデータベースを参照し、入力画像から抽出した特徴量に基づいて前記入力画像の良否を判定する判定手段と、前記判定手段による前記入力画像に対する良否の判定結果と、ユーザによる前記入力画像に対する良否の判定の結果とが異なる場合に、前記データベースより候補画像を抽出する抽出手段と、前記抽出された候補画像を表示部に表示させる表示制御手段と、前記表示された候補画像からユーザにより選択された候補画像に基づいて、前記データベースに前記ユーザの判定に基づく良否関係を設定する設定手段と、を有することを特徴とする。
以上の構成によれば、本発明では、ユーザは自身の好み、嗜好性を容易に設定できるようになる。
第1の実施形態に関わる画像処理装置の機能構成を示すブロック図。 第1の実施形態において画像が特徴空間に分類された様子を示す概念図。 第1の実施形態に関わる表示制御部が表示する選択肢表示画面を説明する図。 第1の実施形態に関わる良否登録部の処理手順を示すフローチャート。 第1の実施形態に関わる個別嗜好学習部の処理手順を示すフローチャート。 第1の実施形態において選択肢候補画像を抽出する処理の概念図。 第2の実施形態に関わる画像処理装置の機能構成を示すブロック図。 第2の実施形態に関わる表示制御部が表示する選択肢表示画面を説明する図。
[第1の実施形態]
第1の実施形態として、撮影者ないし被写体の個人が万人とは違う基準で「好ましくない」と判断した画像に基づいて、撮影者ないし被写体の個人の嗜好性を学習方法について説明する。以下、図面を参照して本実施形態を詳細に説明する。
図1は、本実施形態に関わる画像処理装置10のソフトウェア構成(機能構成)を示すブロック図である。図1に示す画像処理装置10の各機能部は、画像処理装置が備えるCPUがROM、RAM、HDD等の格納手段に格納されている制御プログラムを実行することにより実現される。本実施形態では、画像処理装置がデジタルカメラ等の撮像装置である場合を例に説明する。
図1において、良否登録部100は、画像を見たときに万人が感じる良否(「好ましい」または「好ましくない」)の判定基準を画像特徴毎に予め登録しておくためのものである。良否登録部100は、画像取得部101、画像特徴抽出部102、および画像特徴分類部103により構成される。
画像取得部101は、良否判定の基準を学習するための学習用画像を取得する。学習用画像は、カメラ等の撮像装置により撮影され、PC、スキャナ、記憶装置(ハードディスクドライブ等)、記憶媒体(不揮発性フラッシュメモリーやCD−ROM、DVD−ROM等)から予め学習装置に入力され、不図示のHDD等に格納されている。学習用画像は、「好ましい」、「好ましくない」とタグ付けされるか、または「タグ無し」の3つの状態に分けられているものとする。学習用画像に対するタグ付けは、例えばプロのカメラマンがそれぞれの画像を見て、「好ましい」と「好ましくない」とを判断することで行われる。
画像特徴抽出部102は、画像取得部101が取得した学習用画像の画像データから画像特徴を抽出する。画像特徴分類部103は、画像特徴抽出部102で抽出した画像特徴、および学習用画像のタグ情報に基づいて画像を分類する。画像を分類する手法としては、機械学習のクラスタリングの代表的な手法である、k−means法やNearest Neighbor法などを利用することができる。画像特徴分類部103が分類する各クラスタは、画像の良否を判定する要因(良否判定要因)に対応している。
図2は、画像特徴分類部103によって学習用画像が特徴空間に分類され、マッピングされている様子を模式的に図示した概念図である。特徴空間200は、画像特徴抽出部102で抽出した特徴量の次元数に基づき、各学習用画像の画像特徴を写像するための空間である。同図においては、「好ましくない」学習用画像の画像特徴が、「目線」、「目瞑り」等の要否判定要因毎にクラスタリングされた様子を示す。
本実施形態では、撮影環境(背景、照明など)および撮影条件(同一人物、顔向き、見切れの発生など)を所望の状態に設定し、万人が好ましくないと判定するような学習用画像を用意している。そして、本実施形態に係る良否登録部100では、これら「好ましくない画像」が、意味的なまとまりを持って、図2のように特徴空間200にマッピングされる。例えば、クラスタ201は、画像202のように顔向きのみの変動が生じているクラスタである。他にも、「表情」、「目瞑り」、「目線」、「見切れ」などの良否判定要因に応じたクラスタに、「好ましくない」とタグ付けされた画像が分類され、データベース104に登録されている。このように、データベース104には、画像特徴抽出部102により抽出された特徴量と、その画像の良否との良否関係とが対応付けられて記憶されている。
なお、データベース104に登録される学習用画像は、予め同一人物を様々な撮影条件で撮影した画像群を利用してもよいし、複数の人物を様々な条件で撮影した後、個体差に依らない特徴量のみを抽出し、画像特徴分類部103でクラスタに分類してもよい。また、実際の人物でなくても、コンピュータグラフィックスを利用して、架空の人物を様々な撮影条件で画像生成し、それらの画像特徴から良否判定要因を解析して、データベース104に登録するなどしてもよい。
個別嗜好学習部110は、システムとユーザが良否判定した結果が異なる場合に、データベース104に登録されている画像を数枚利用し、ユーザ固有の嗜好性を特定する。また、特定したユーザの嗜好性に基づきデータベース104を更新する。個別嗜好学習部110は、良否判定部111、嗜好選択肢抽出部112、表示制御部113、および個別嗜好設定部114により構成される。
本実施形態の画像処理装置10はデジタルカメラ等の撮像装置であり、良否判定部111は、撮像部で撮像された画像を入力信号として受信する。そして、データベース104を参照し、取得した撮像画像の良否を判定する。なお、良否判定部111は、取得した画像の良否判定を行うにあたり、画像特徴抽出部102および画像特徴分類部103と同様に画像の特徴抽出および分類を行う。
ここで、例えば、良否判定部111が「好ましい画像」であると判定したにも関わらず、ユーザは「好ましくない画像」と判定する場合がある。この場合、明らかにその画像は、ユーザ固有の嗜好性によって「好ましくない」と判定されている。したがって、ユーザがなぜ当該画像を「好ましくない」と判定したかの理由を特定することができれば、ユーザ固有の嗜好を良否判定要因画像データベースに組込むことが可能になる。そこで、本実施形態では、「好ましくない画像」と判定した理由(良否判定要因)を特定するための画像を撮像装置の表示部に表示し、ユーザに選択をさせるものである。
嗜好選択肢抽出部112は、ユーザ固有の嗜好性を特定するために、データベース104から、ユーザに選択させる画像の候補を抽出する。本実施形態は、選択肢となる画像の候補としてデータベース104に登録済みの画像を、ユーザ個人の嗜好性を確認する選択肢の画像として利用する。一般的に、ユーザの嗜好性を言語で表現すると、例えば「もう少し右からのアングルで撮影される方が好ましい」や「もう少し柔らかい表情が好ましい」等、曖昧な表現になってしまう場合が多い。また、これを点数として表現することも難しい。また、ユーザ自身は常に個人嗜好性を意識して画像の良否判定を行っているわけでは無いため、ユーザによっては個人嗜好性を言語や点数で的確に答えられない場合も多い。本実施形態では、予め用意する画像群を視覚的なヒントとして利用することで、ユーザが「好ましくない」と判定した画像に対して、その根拠となる要因を、ユーザは言語で嗜好性を示さなくとも、直感的に嗜好性を登録することが可能になる。
表示制御部113は、嗜好選択肢抽出部112でデータベース104より抽出した画像群を撮像装置の表示部に表示させる。図3には、ユーザが良否判定した結果と良否判定部111が良否判定した結果とが異なった場合に、表示制御部113によって撮像装置の表示部に表示される選択肢表示画面300を示す。選択肢表示画面300は、ユーザが「好ましくない画像」を選択する領域(上部)と、好ましくないと感じる要因を特定するための選択肢となる画像群を表示する領域(下部)と、から構成されるユーザインタフェースである。
本実施形態では、まず、上部の領域に、撮像部で撮像された画像がプレビュー画像一覧301として撮影順に並べられて表示される。なお、表示する順番は、被写体毎、イベント単位、時間的に降順あるいは昇順のように、他の規則に従って表示することもできる。ユーザは、プレビュー画像一覧301の画像群の中から、「好ましくない画像」を選択し、装置に備えられたボタンもしくはタッチユーザインタフェースを利用して、指示することができる。図3では、ユーザが画像302を「好ましくない」と判断し選択している様子を示しており、画像302が「好ましくない画像」として削除対象に指定されているため太枠で表示されている。
次に、良否判定部111は、プレビュー画像一覧301から「好ましくない画像」が選択されたことに応じて、データベース104を参照し、ユーザが削除対象として「好ましくない」と判断した画像302の良否を判定する。そして、良否判定の結果が異なっていた場合、ユーザ固有の嗜好を特定するために、画像302の良否判定の根拠になり得る領域を推定し、良否判定候補領域303として図のように表示させる。良否判定候補領域303は、例えば、顔検出処理によって算出された顔領域や、連続した画像を対象にする場合は、オプティカルフローなどを用いて画像間の変動量を算出し、変動量が1番大きい領域を良否判定候補領域に設定すればよい。また、複雑な計算はせずにユーザが直接その領域を指定するなどしてもよい。
続いて、嗜好選択肢抽出部112は、設定された良否判定候補領域303に基づいて、データベース104から、ユーザに選択させる画像の候補を抽出する。そして、表示制御部113は、嗜好選択肢抽出部112が抽出した画像群を、選択肢表示画面300の下部の領域に良否判定要因を特定する画像304を含む画像群として表示する。なお、嗜好選択肢抽出部112による画像群の抽出方法の詳細については、後述する。
選択肢表示画面300は、画像群のいずれか、もしくは複数枚をユーザが選択することを可能にするユーザインタフェースとして機能する。ユーザは、画像302を「好ましくない画像」と判定した理由に近い画像を、選択肢候補の画像群の中から選択し、ボタン305を押下する。図3では、目線、表情、顔向きの3つの良否判定要因に関して画像302に近いものが選択肢画像として表示されている。また、各画像がどの良否判定要因に対応する画像であるかを分かりやすくするために、各良否判定要因を図示化し、表示される画像群のそれぞれに付加して表示させている。例えば、3枚の画像のうち一番右の画像では、良否判定要因が顔向きの画像であるため、顔に3次元の座標軸を注釈情報として表示している。なお、ユーザが「好ましくない」と判定した理由に近い画像が選択肢候補として表示されなかった場合は、ボタン306を押下し、選択肢候補が無かったことを通知する。
図1に戻り、個別嗜好設定部114は、ユーザの否判定要因を特定する画像群に対する操作指示の情報を受け付ける。そして、データベース104の更新内容を決定し、ユーザ固有の嗜好を設定する。
次に、良否登録部100において、良否判定基準を登録する処理の詳細について説明する。図4は、本実施形態に係る良否登録部100の処理手順を示すフローチャートである。
まず、ステップS401において、画像取得部101は、データベース104に登録するための学習用画像を読み込む処理を行う。ここで、良否登録部100では、良否判定の根拠となる要因毎にある程度まとまった画像の組として、データベース104に登録した方が、良否判定要因毎に画像群をクラスタに分離しやすくなる。なお、ステップS401で読み込む画像は、予めプロの写真家などが一定の基準で良否判定した画像群や、意図的に表情や顔向きを変えて撮影した画像群などを想定している。
ステップS402からS406までの処理は、画像特徴抽出部102によって画像特徴を抽出するための処理である。本実施形態は、個人嗜好性が顕著に現れる、人物が被写体の画像の良否判定を行うことを想定しているため、ステップS402からS406で抽出する特徴は主に人物の顔から抽出可能な特徴量を利用する。ステップS402からS406で計算する画像特徴の一例は、個人識別した情報、表情に関する情報、顔向きの姿勢情報、および画質(ボケや色味)に関する情報などである。ここでは、被写体の顔から判別できる特徴を多く挙げたが、それ以外に画像の審美性を左右する構図情報など他の特徴量を導入しても構わない。また、被写体の年齢や性別の属性情報などを追加するなどしてもよい。
以下、ステップS402からS406の個々の処理について詳しく説明する。ステップS402では、ステップS401で読み込んだ画像に写る被写体の顔に関する様々な情報を抽出するために、まず画像から被写体の顔を検出する。画像から顔を検出する方法としては、非特許文献1に記載の方法が幅広く利用されている。例えば、非特許文献1で開示される手法を利用することで、画像内の各人の顔の位置および大きさを算出することができる。
非特許文献1の原理は、学習用画像の顔からHaar−Likeと呼ばれる特徴量を収集し、AdaBoostにより統計的に顔らしい特徴を識別できるようにしている。ステップS402の処理により、画像に顔が含まれていれば、検出した顔の個数、(顔を包含する)顔検出枠の左上と右下の座標値と重心位置などの情報が出力される。
ステップS403では、ステップS402で1つ以上の顔を検出したことを受け、個人識別処理を行う。個人識別処理は、1980年代より様々な手法が提案されており、その一例として、非特許文献2が挙げられる。非特許文献2に記載の方法は、顔画像から固有顔を算出し、固有顔の主成分分析を行い、固有顔が予め登録されている画像データベースと比較することで個人を識別する。本実施形態では、ステップS403で被写体の個人識別が行われ、被写体毎に個人嗜好性がデータベース104に設定される。
ステップS404では、例えば、非特許文献3で開示される技術を利用することで表情識別及び表出強度推定を行う。
ステップS404では、まず、ステップS402で検出した顔検出枠内の顔特徴点(例えば目尻、瞳、目頭、鼻の先端、口角、口の中心の位置)を算出する。これらの顔特徴点の算出方法は、非特許文献2で開示される方法で検出することが可能である。非特許文献3に記載の方法では、ステップS402で検出した顔検出枠内の顔特徴点をGentleBoostの手法を利用して算出している。GentleBoostの手法を利用した顔特徴点の算出方法に関しては、非特許文献2にも記載されているが、非特許文献1の手法と同じように、予め目尻や口角と言った特徴的な顔パーツを弱識別器によって学習しておくことで、検出が可能になる。この他にも、AAM(Active Appearance Model)やCLM(Constrained Local Model)と呼ばれる手法などを利用し、顔の特徴点を算出することも可能である。
そして、ステップS402で算出した顔特徴点周辺の輝度情報から特徴量を算出する。特徴量の算出方法は、例えば、非特許文献4で開示される手法を利用して求めることができる。非特許文献4で開示される手法では、ステップS402で算出した顔特徴点の位置を中心に周囲96×96ピクセルを顔パッチとして切り取り、切り取った顔パッチを高速フーリエ変換した後、Gaborフィルターにかけ、特徴ベクトルを算出している。なお、非特許文献4では特徴量の算出にGaborフィルターを用いて算出しているが、その代わりに、LBP(Local Binary Pattern)やLPQ(Local Phase Quantization)などを利用する方法もある。
ここで、データベース104に登録する表情に関する特徴量を算出することができるが、更にこの特徴量を識別器にかけ、予め決めた表情分類に従って分類することも可能である。非特許文献4の手法では、顔の表情動作を客観的に記述する方法として知られているFACS(Facial Action Coding System)のAU(Action Unit)に対応する変化を検出する。そして、全46個のAUの組合せとその強弱で、表情を識別している。なお、FACSとAUの詳細に関しては、下記の非特許文献5を参照することができる。
ステップS404では、非特許文献4の手法を用いて、計算される特徴ベクトルを入力として線形SVM(サポートベクターマシン)で、どのAUが変化したか否かの2値判別を行い、表情によって変化したAUを特定することができる。ここで特定したAUの組合せによって、被写体の表情が、どの表情カテゴリ(喜び、悲しみ、恐怖、不安、怒り、驚き、無表情)に属するかを識別することができる。例えば、AU4(Brow Lower)とAU10(Upper Lip Raiser)が変化していたら、「怒り」の表情カテゴリに属する、と言った具合である。
さらに、特定したAUの変化強度より被写体の表情表出強度を特徴量として、算出することもできる。具体的には、特定されたAUを識別する線形SVMの超平面と、特徴ベクトルとの距離を算出し、AUの変化強度とすることが可能である。つまり、表情変化が大きければ大きい程、特徴ベクトルとAUを識別する線形SVMの超平面との距離が遠くなり、表情変化が小さければその距離は0に近くなる。
非特許文献4の手法では、変化が生じたAUの組合せとAUの変化強度を、予め用意しておいた表情データベースより抽出した表情カテゴリと表出強度の参照テーブルと比較することで、現在の撮影者の表情表出強度を推定している。または、AUの組合せとAUの変化強度を線形の重み付き足し算で表出強度を推定するなどしてもよい。ただし、表情の表出に関しては個人差があり、被写体によっては、そもそも表情が出難い人物もいる。そのため、被写体毎に表出強度計算に利用する重みを変更することが望ましい。また、ステップS404の計算過程で既に顔特徴点を算出しているため、表情の識別に加えて、目の開閉度合いと言った特徴を特徴量として計算することも可能である。
ステップS405では、ステップS402で検出した顔領域に対して、その顔の向き(姿勢)を計算する。顔向きの計算方法も個人識別同様、従来より数々の手法が提案されており、それらの中から好適な手段を適宜選択すればよい。その一例として、非特許文献6や非特許文献7に記載の方法などが挙げられる。どちらの方法も、顔特徴点で表現される顔モデルと顔画像の濃淡パターンから作られるアピアランス情報を使って、予め特徴検出器を作成しておき、入力画像とのマッチングを計算するものである。
ステップS405は、これらの手法を利用して、3次元的な顔の位置および向きを推定する。本実施形態に係るデータベース104には、入力画像から得られる被写体の顔の位置、並びに向きの情報も特徴量として記録される。顔向きに関する特徴は、例えばカメラ写りを気にする人物の場合、右側から撮影された写真と左側から撮影された写真とで好みが大きく分かれることが多く、そのような個人嗜好性をシステムに登録するために必要になる。
次に、ステップS406では、画質(被写体の写り具合)に関する特徴量を抽出する。これは、例えば、被写体にピントが合っているか、ブラーが生じていないか、画像内の被写体の位置やサイズは適切か、といった審美的な要因を評価するための特徴量である。審美的な要因を評価するための特徴量を計算する方法は、例えば、非特許文献8に記載の方法が挙げられる。非特許文献8は、既存の顔検出技術に加え、画像内を物体毎にいくつかの領域に分割し、その領域内の画素のクリアさ(ブラーが生じているか否か)を特徴量として抽出して良否判定を行っている。また、非特許文献8では、画素のクリアさに加え、様々な他の特徴量も抽出し、総合的に画像全体の審美性を評価するスコアを算出している。
以上、本実施形態では、ステップS403〜S406において、画像特徴抽出部102は、種々の特徴量として、個人識別情報、表情に関する情報、顔向き(姿勢)に関する情報、画質に関する情報の4つの特徴量を計算する。また、これらの特徴量に加え、被写体の年齢や性別といった属性情報や、顔以外の身体の姿勢(ジェスチャーを含む)に関する情報も同時に抽出して良否判定要因に利用するなどしてもよい。
次に、ステップS407では、画像特徴分類部103が、ステップS402〜S406の各処理で画像から抽出された特徴量と画像をデータベース104に登録する。そして、ステップS408では、データベース104に登録する全ての画像の特徴量抽出および画像の登録作業が完了したか否かが判定される。全ての画像を登録し終えていない場合は、ステップS401に戻る。全ての画像を登録し終えたら、画像特徴を良否判定の根拠となる要因毎にまとめるために、次のステップに進む。
ステップS409では、画像特徴分類部103が、ステップS407でデータベース104に登録した全ての画像に対して抽出した特徴空間上でクラスタリングを行う。クラスタリングは、例えば、前述のk−means法などを利用して画像特徴毎にまとまったクラスタを算出する。前述したように、このステップで生成されたクラスタは、例えば図2に示すように、目線、顔向き、表情、というように意味のある特徴毎にまとめられる。また、特徴空間上に分布する各画像特徴に主成分分析をかけ、次元圧縮し各画像特徴の主成分を割り出すことも可能である。算出した主成分は、良否判定の根拠となる要因の変化を顕著に示すパラメータ軸になっているため、前述のクラスタの代わりに算出した主成分軸を利用して画像特徴を分類してもよい。
なお、本実施形態は予め撮影した実写画像を学習用画像として用いデータベース104に登録するようにしているが、例えば非特許文献9のように、実写画像以外にもコンピュータグラフィックスで生成した顔画像を利用してもよい。コンピュータグラフィックスによる目線、顔向き、表情の変更は、3次元の顔モデルさえ用意できれば、パラメータを変えるだけで容易に行うが可能である。
また、データベース104で良否判定の根拠となる要因毎にクラスタリングできた場合、特徴選択を行い、そのクラスタを分類するために最も寄与する特徴量のみを利用し、各クラスタへの分類を行うなどしてもよい。以上で、良否登録部100における良否判定基準を登録する処理が終了する。
次に、個別嗜好学習部110において、ユーザ固有の嗜好性を学習する処理の詳細について説明する。図5は、本実施形態に係る個別嗜好学習部110の処理手順を示すフローチャートである。まず、ステップS501では、良否判定部111が、撮像部で撮像された画像を入力信号として受信する。ここでは、デジタルカメラ等の撮像装置で撮像した画像に対して処理を行う例について説明するが、撮像装置の記憶装置等に格納される画像を読み込んでもよい。
ステップS502では、良否判定部111が、データベース104を参照し、ステップS501で取得した画像の良否判定を行う。具体的には、良否判定部111は、まず画像特徴抽出部102と同様の画像処理を行い、画像特徴を抽出する。そして、抽出した特徴量を特徴ベクトルとして、良否判定要因画像データベースに登録済みの「好ましくない画像」のクラスタに分類されるか否かを判定する。撮像画像の特徴ベクトルが、あるクラスタに分類されるか否かは、良否登録部100で利用したクラスタリングの方法と同一の方法で判別可能である。具体的には、特徴ベクトルと各クラスタの中心ないし重心との距離を算出し、距離が閾値以下となるクラスタを見つけることで、分類することができる。もしくは、最も距離が近い特徴ベクトルが属するクラスタを撮像画像の特徴ベクトルが属する候補となるクラスタに設定するなどしてもよい。なお、ステップS502の処理は、撮像直後、もしくは撮像した画像をユーザに見せる前には完了していることが望ましい。
ステップS503では、表示制御部113が、ステップS501で取得した撮像画像を撮像装置の画像表示部(液晶ディスプレイ等)に表示する。そして、ステップS504では、良否判定部111が、ユーザが指示した良否判定の結果を受付ける。具体的には、撮像装置の液晶ディスプレイにプレビュー表示されている状態で、例えばその撮像画像を削除するか否かの指定を受付ける処理になる。
ステップS505では、良否判定部111が、ステップS502で判定した良否結果と、ステップS504で受付けたユーザによる良否判定結果が一致するか否かを比較する。比較した結果、両者の良否結果が一致した場合は、ユーザの個人嗜好性を学習する必要が無いので、ステップS501に処理を戻し、新しい画像の入力を待つ。一方、良否結果が一致しない場合、例えば良否判定部111で好ましいと判断した画像であるにも関わらず、ユーザが削除を選択した場合などは、ユーザの個人嗜好性を学べる機会と判断し、ステップS506〜S509までの処理を実行する。
ステップS506において、嗜好選択肢抽出部112は、ユーザの個人嗜好性を把握するために、データベース104に登録済みの「好ましくない画像群」から、それらの画像のどれに近いかをユーザに問合せるための画像候補を抽出する。図6は、ステップS506の処理で、データベース104に登録されたクラスタから、選択肢候補画像を抽出する場合の一例を図示した概念図である。
以下、選択肢候補画像の抽出例を、図3および図6を参照しつつ、具体的に説明する。なお、前提として、本実施形態の画像処理装置は、ユーザの個人嗜好性を学習する前であり、図3の画像302を「好ましい画像」と判定しているものとする。そして、装置が「好ましい画像」と判定した図3の画像302に対して、ユーザは「目線が前(ゴール)を向いていなかった」という理由で削除指定を行ったとする。なお、この画像302について、ステップS502の良否判定処理の過程で、その画像特徴量は抽出済みである。抽出した画像特徴量を特徴ベクトルとして良否判定要因画像データベースに登録されている特徴空間に写像した点は、図6において特徴点601として示している。
ステップS506では、嗜好選択肢抽出部112が、特徴点601に距離(類似度)が近い画像を選択肢候補として抽出する。図6の特徴空間内の距離は、特徴ベクトル間のユークリッド距離などを計算することで求めることができる。図6の例では、算出した距離が近い順に上位3つの特徴点を選択肢候補として抽出している。データベース104には、登録済みの各画像と特徴ベクトルがセットで登録されているため、特徴ベクトルに対応する元画像を検索することが可能である。図6では、例として3枚の選択肢候補画像を表示しているが、表示枚数には制限は無く、データベース104に登録されている画像から必要な枚数を抽出して表示すればよい。
ステップS507では、表示制御部113が、ステップS506で抽出された選択肢候補画像を装置の表示部に表示する。図3の画像304は、選択肢候補画像を表示した一例である。図3では、ステップS506で算出した特徴ベクトル間の距離の近い順に並べて表示しているが、距離が遠い順や、距離の算出方法を変えて並び順を操作するなどしてもよい。また、ユーザによってはそれぞれの特徴量に優先順位を付けた方が適切に個人嗜好性を反映できる場合も考えられるため、特徴ベクトルに優先順位の重みを付けて距離を算出するなどしてもよい。
ステップS508において、個別嗜好設定部114は、ステップS507で表示した画像からユーザが選択した選択肢候補画像の情報を受付ける。ここでは、ユーザは目線の向きが好ましくないと感じて、画像302を選択している場合であるので、ユーザは、図3の選択肢候補の表示領域に表示される画像304の目線の向きが上方を向いている画像を選択する。その際、表示画面には、図3の画像304に示すように画像特徴が一目でわかるように、特徴を可視化して表示するなどしてもよい。これは例えば、無表情の時の顔画像からの変分量を抽出し、変分量が閾値以上となる領域の方向を矢印で示してもよいし、矩形領域などで表示するようにしてもよい。また、顔向きに特徴がある場合は、顔に3次元の座標軸を注釈情報として表示するなどしてもよい。
ステップS509では、個別嗜好設定部114が、ユーザの選択した画像を元に、データベース104に登録する個別嗜好に関する情報をパラメータとして追加する。ここで、個別嗜好に関する情報とは、データベース104に登録済みの各良否判定クラスタに対し、新規にクラスタを生成した場合に変更される各種数値情報(パラメータ)を指している。あるいは、既存クラスタに新たに個別嗜好情報を持つ画像を追加し、クラスタの範囲を再学習した場合に変更される各種数値情報(パラメータ)を指している。
選択肢表示画面300においてユーザが1以上の選択肢候補画像を選択した場合、ステップS509では、個別嗜好設定部114が、データベース104に登録済みのクラスタに対して個別嗜好情報を追加し、特徴空間上のクラスタの範囲が再度計算する。具体的には、図2ないし図6の顔向きの特徴を示すクラスタ201の範囲を特徴点601まで広げる。このクラスタの再計算処理により、再度特徴点601に似た画像が入力された場合に、良否判定部111は、このユーザ個人の嗜好性を反映したクラスタに分類することができるようになる。このようにクラスタの再計算処理を行うことで、データベース104は、個人嗜好性を持つ情報を逐次追加しながら、良否判定の根拠となるクラスタを個人の嗜好性に合わせて設定し直すことが可能になる。
一方、選択肢表示画面300において、ユーザが「選択肢無し」のボタン306を押下した場合は、データベース104に選択肢となるクラスタが存在しないことを意味する。そのため、個別嗜好設定部114は、ユーザが削除対象に指定した画像302の特徴点601を中心としたクラスタを新たに生成する。このとき、特徴点601を中心としたクラスタの範囲は、隣り合うクラスタに重ならないように範囲を設定することが望ましい。また、設定する時の範囲は、初期値として予め設定していてもよいし、新規クラスタ生成時にユーザが直接設定するなどしてもよい。
ステップS510では、本処理の終了判定を行い、処理を続ける場合には、ステップS501の画像取得工程に処理を戻す。
なお、本実施形態の説明では、被写体である人物の表情についてユーザ固有の嗜好性を学習する形態について説明してきたが、本実施形態の適用範囲は、人物の表情に限られるものではない。例えば、画面内の顔の位置と大きさ(構図)、顔向き(姿勢)、視線の向き、目つき、瞬き、性別や年齢による影響などによって、良否判定の基準が被写体によって異なる場合に同様に適用可能である。
以上、本実施形態によれば、ユーザが「好ましくない」と判定した画像の画像特徴に近い画像をデータベースより抽出し、ユーザに選ばせることで、個人嗜好性を学習することが可能になる。特に、本実施形態では、ユーザが「好ましくない」と判定した画像に対して、その根拠となる要因を、ユーザは点数や言語で示さなくとも、直感的に嗜好性を登録することが可能になる。
[第1の実施形態の変形例]
第1の実施形態では、装置が「好ましい画像」と判定した画像に対して、ユーザが「好ましくない」と判定した場合について説明した。これとは逆に、装置が「好ましくない画像」と判定した画像に対して、ユーザが「好ましい」と判定するような場合についても、本発明は適用可能である。
本変形例では、学習用画像として「好ましい画像」が要否判定要因毎にクラスタリングされ、データベース104に登録される。そして、ある画像に対して、良否判定部111が「好ましくない」と判定し、ユーザが「好ましい」と判定した場合に、嗜好選択肢抽出部112は、データベース104の「好ましい」画像群の中から候補画像を抽出する。ユーザの個人嗜好性をデータベース104に反映する設定方法については前述の第1の実施形態と同様である。
本変形例において、データベース104に登録されている画像は、予め用意される画像群やユーザが撮影した画像以外に、例えば雑誌などに写っているモデルの画像などでも構わない。これは、モデルなどのお手本となり得る写り方から、好ましい画像の特徴を抽出し、データベース104に登録することができるためである。一方で、「好ましくない」とユーザが判定する画像は、ユーザが暗黙的に抱えるコンプレックスなども反映される必要がある。そのため、前述の第1の実施形態のように、ユーザ本人や主に被写体となる人物が写っている画像に対して、パラメータを設定する方がよいと考えられる。
[第2の実施形態]
次に、本発明の第2の実施形態について説明を行う。本実施形態では、ユーザに複数枚の候補画像を同時に選択させることで、複数の良否判定要因に係る個別嗜好性を学習する構成について説明する。以下の説明では、パーソナルコンピュータ(PC)が本発明の画像処理装置として機能し、アルバム作成や印刷をする際に、装置が大量の画像群より撮影者および被写体が好まないと思われる画像を選別する場合を例にして説明する。なお、第1の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。
図7は、本実施形態に関わる画像処理装置10のソフトウェア構成(機能構成)を示すブロック図である。同図において、第1実施形態の構成と異なるのは、個別嗜好設定部114に代えて、個別嗜好パラメータ設定部701を有する点である。また、第1の実施形態では、撮像部で撮像された画像を取得するようにしていたが、本実施形態では、画像取得部101が学習用画像に加えて、処理対象の画像を取得する。画像取得部101は、本画像処理装置内の記憶装置、または本装置に接続された記憶媒体、記憶装置等に格納された画像を読み込む。
なお、学習用画像を取得する機能部と、処理対象の画像を取得する機能部が別々となった構成であってもよい。なお、本実施形態では、大量の画像群を処理する場合を想定しており、学習用画像および処理対象画像を読み込むための入力部(インターフェイス)は別に構成されていることが望ましい。例えば、学習用画像を装置に接続された記憶媒体または記憶装置から読込み、インターネット上のクラウドと呼ばれるディスクストレージサービスから大量の画像データをダウンロードして読込むなどの構成が想定される。
図7に戻り、個別嗜好パラメータ設定部701は、第1の実施形態と同様に、ユーザにより選択された候補画像に基づいて、ユーザの個別嗜好性を学習する。そして、データベース104に登録済みのクラスタに対して個別嗜好情報を追加し、特徴空間上のクラスタの範囲が再度計算する。これに加えて、選択肢表示画面300においてユーザが選択した候補画像に基づいて、データベース104に登録するパラメータを設定する。
次に、本実施形態におけるユーザ固有の嗜好性を学習する処理について説明する。図8は、本実施形態において、表示制御部により表示される選択肢表示画面300の一例を示したものである。同図において、プレビュー画像一覧301には、例えば運動会で撮影した様々なシーンから、装置の良否判定部111が「好ましい」と判定した画像が選択され、表示されている。
ここで、例えばユーザが画像302に示す主被写体となる子供の顔向きが好ましくないと判定し、削除もしくは非表示にすることを選択したとする。本実施形態に係る画像処理装置10の嗜好選択肢抽出部112は、ユーザの指定操作を受け、個人嗜好性を示すパラメータを再設定するための画像をデータベース104より抽出する。そして、抽出した画像は、表示制御部113によって、図8の選択肢画像表示領域801に表示される。
選択肢画像表示領域801のうち、画像802は、ユーザによって既に「好ましくない」と判定されたことがあり、データベース104で「好ましくない画像」として登録されている画像である。「好ましくない画像」として登録された画像は、図8に示すように、フレームが太線もしくは斜線でユーザが視認しやすいように表示される。
一方、画像803は、ユーザによって既に「好ましい」と判定されたことがあり、データベース104で「好ましい画像」として登録されている画像である。また、画像804は、ユーザが新たに「好ましくない」と判定した理由(この場合は顔向き)に近い画像として、指定した画像である。画像804は、画像802および画像803と容易に区別できるよう、破線等で枠線および斜線を表示している。
カテゴリ表示欄805は、各行で示される画像群がどの良否判定要因に基づくものかをユーザに提示するものである。図8の場合、単に「カテゴリ1」、「カテゴリ2」と表示しているが、「カテゴリ1」には「目線」に基づく画像群を表示しているため、「カテゴリ1」と表示する代わりに、「目線」というタグを表示するなどしてもよい。ただし、良否判定要因は、前述のように「目線」と言った分かりやすい単語で表現されるものばかりではなく、言語化が困難な表情や写り方も多く存在する。そのため、カテゴリ表示欄805には必ずしも画像群の意味がわかる単語がカテゴリ名として表示できるわけではない。また、言語化が困難な画像群の場合は、例えば第1の実施形態で示したクラスタの識別IDをカテゴリ表示欄に表示するなどしてもよい。
パラメータ806およびパラメータ807は、ユーザの個人嗜好性を示すパラメータを図示したものである。パラメータ806およびパラメータ807は、ユーザが選択した候補画像に基づき個別嗜好パラメータ設定部701により設定され、表示制御部113により表示される。例えばカテゴリ1は、目線の向きに関する画像群で、そのうち目線が左下から右下までの顔画像と、上を向いた顔画像が好ましくないと指定されているため、その大凡の範囲がパラメータ806の灰色で指定した領域に表示されている。ここで、パラメータ806は目線に関する角度をパラメータとしてユーザにわかりやすく表示するために円の図形で表示している。一般的には、このようにカテゴリの内容をわかりやすく図示することは困難であるため、その場合はパラメータの最大値と最小値を表示するようにする。
また、カテゴリ2には、顔向きに関連する画像群が列挙されている。パラメータ807は中心が顔向きの0度(正面)を示しており、右向き−180度〜左向き180度までを示している。ここで、新たに画像804(若干右向きの顔画像)を、ユーザが好ましくない画像として指定したため、パラメータ807の表示が更新され、好ましくないと判断する顔向きの角度が増加している。
このように、本実施形態に係る選択肢表示画面300には、個人嗜好性のパラメータを変更するための画像群が良否判定要因別に1行ずつ表示され、そのパラメータも同時に表示される。ユーザは、選択肢画像表示領域801の画像を選択しながら変化するパラメータを確認しつつ、ユーザの個人嗜好性を登録することができる。
一方、画像804の指定により、データベース104に登録されるパラメータが変更になるため、本実施形態では、プレビュー画像一覧のうち点線の枠で示される画像808も新たに「好ましくない」画像と判断されるようになる。これは、画像808の被写体の顔の向きも画像302と同様に右を向いているためである。そこで、本実施形態では、カテゴリ表示欄805に表示されるカテゴリのそれぞれの優先度を指定できるようにしている。例えば、画像808に対してユーザが「好ましい」と判断する場合は、ユーザは、カテゴリ表示欄805に表示されるカテゴリのうち、被写体の顔向きに係る優先度を下げて、他のカテゴリの優先度を上げるように設定することができる。これにより、顔向きが「好ましくない」ような画像であっても、その他の要因(表情等)が良ければ「好ましい画像」と判定されるようになる。
以上、本実施形態によれば、ユーザに良否判定要因(カテゴリ)ごとに候補画像を選択させることで、複数の良否判定要因に係る個別嗜好性を学習することが可能となる。また、本実施形態では、個別嗜好パラメータ設定部701により、データベース104に反映させる数値情報(パラメータ)を選択肢表示画面300に表示させることにより、自身が設定している個別嗜好性をユーザに直感的に示すことができる。
[その他の実施形態]
また、本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、前述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
10 画像処理装置
101 画像取得部
102 画像特徴抽出部
103 画像特徴分類部
104 データベース
111 良否判定部
112 嗜好選択肢抽出部
113 表示制御部
114 個別嗜好設定部

Claims (10)

  1. 画像から抽出された特徴量と当該画像に対する良否との良否関係を対応付けて記憶するデータベースを参照し、入力画像から抽出した特徴量に基づいて前記入力画像の良否を判定する判定手段と、
    前記判定手段による前記入力画像に対する良否の判定結果と、ユーザによる前記入力画像に対する良否の判定の結果とが異なる場合に、前記データベースより候補画像を抽出する抽出手段と、
    前記抽出された候補画像を表示部に表示させる表示制御手段と、
    前記表示された候補画像からユーザにより選択された候補画像に基づいて、前記データベースに前記ユーザの判定に基づく良否関係を設定する設定手段と、
    を有することを特徴とする画像処理装置。
  2. 前記データベースは、前記良否関係を画像の良否に関係する要因ごとに分類して記憶していることを特徴とする請求項1に記載の画像処理装置。
  3. 前記設定手段は、前記要因に関するパラメータを設定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記抽出手段は、複数の前記要因ごとに候補画像を抽出し、
    前記設定手段は、前記複数の要因それぞれに関するパラメータを設定することを特徴とする請求項3に記載の画像処理装置。
  5. 前記表示制御手段は、前記設定手段が設定するパラメータの情報を表示部に表示させることを特徴とする請求項3または4に記載の画像処理装置。
  6. 前記制御手段は、前記候補画像に前記良否に関係する要因の情報を付加して表示することを特徴とする請求項2から5のいずれか1項に記載の画像処理装置。
  7. 前記抽出手段は、前記入力画像と距離の近い複数の画像を前記データベースより抽出することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記特徴量は、顔の向き、目線の角度、表情が表出強度、目が開いている度合い、口が開いている度合い、画質のうちの少なくとも1つであることを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 画像から抽出された特徴量と当該画像に対する良否との良否関係を対応付けて記憶するデータベースを参照し、入力画像から抽出した特徴量に基づいて前記入力画像の良否を判定する判定ステップと、
    前記判定ステップにおいて前記入力画像に対する良否の判定結果と、ユーザによる前記入力画像に対する良否の判定の結果とが異なる場合に、前記データベースより候補画像を抽出する抽出ステップと、
    前記抽出された候補画像を表示部に表示させる表示制御ステップと、
    前記表示された候補画像からユーザにより選択された候補画像に基づいて、前記データベースに前記ユーザの判定に基づく良否関係を設定する設定ステップと、
    を有することを特徴とする画像処理方法。
  10. コンピュータを、請求項1から8のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2015080449A 2015-04-09 2015-04-09 画像処理装置、画像処理方法、及びプログラム Active JP6529314B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015080449A JP6529314B2 (ja) 2015-04-09 2015-04-09 画像処理装置、画像処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015080449A JP6529314B2 (ja) 2015-04-09 2015-04-09 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2016200969A JP2016200969A (ja) 2016-12-01
JP6529314B2 true JP6529314B2 (ja) 2019-06-12

Family

ID=57424361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015080449A Active JP6529314B2 (ja) 2015-04-09 2015-04-09 画像処理装置、画像処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6529314B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6731883B2 (ja) * 2017-05-11 2020-07-29 日本電信電話株式会社 参照画像選択装置、方法、及びプログラム
JP2019087008A (ja) * 2017-11-07 2019-06-06 東芝テック株式会社 画像処理システム及び画像処理方法
KR101981634B1 (ko) * 2018-07-31 2019-05-23 주식회사 스토리안트 연령대별 얼굴사진 학습을 통한 지능형 얼굴사진 위치 검색장치
JP7099925B2 (ja) * 2018-09-27 2022-07-12 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP7038650B2 (ja) * 2018-12-20 2022-03-18 Tvs Regza株式会社 送信装置及び送信方法
JP7099947B2 (ja) * 2018-12-20 2022-07-12 Tvs Regza株式会社 送受信システム及び送受信方法
JP7348754B2 (ja) * 2019-06-03 2023-09-21 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体

Also Published As

Publication number Publication date
JP2016200969A (ja) 2016-12-01

Similar Documents

Publication Publication Date Title
JP6529314B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US10810409B2 (en) Identifying facial expressions in acquired digital images
US20210073953A1 (en) Method for applying bokeh effect to image and recording medium
JP5649425B2 (ja) 映像検索装置
TWI742300B (zh) 針對一感興趣的人與一使用者介接以促進影像搜尋之方法及系統
JP4168940B2 (ja) 映像表示システム
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
US8819015B2 (en) Object identification apparatus and method for identifying object
Vaquero et al. Attribute-based people search in surveillance environments
JP5857133B2 (ja) 顔検出を使用した画像の再構成
US10055640B2 (en) Classification of feature information into groups based upon similarity, and apparatus, image processing method, and computer-readable storage medium thereof
JP4797761B2 (ja) 動画表示装置
US20060115157A1 (en) Image processing device, image device, image processing method
JP4444633B2 (ja) 画像分類装置、画像分類方法、および、プログラム
JP6369470B2 (ja) 情報処理システム
US20190332854A1 (en) Hybrid deep learning method for recognizing facial expressions
WO2010133661A1 (en) Identifying facial expressions in acquired digital images
US20150339523A1 (en) Image processing apparatus, image processing method, and storage medium
JP2010271861A (ja) オブジェクト識別装置及びオブジェクト識別方法
JP5971712B2 (ja) 監視装置及び方法
CN107231519B (zh) 视频处理装置及控制方法
JP2016149149A (ja) 画像処理装置、重要人物判定方法、画像レイアウト方法ならびにプログラムおよび記録媒体
JP2008148262A (ja) 撮像装置及び撮像装置の制御方法、プログラム及び記憶媒体
Singh et al. PHOTOGENIC–A Tool for Best Photo Generation from Multiple Group Photographs
JP2019185349A (ja) 検索装置、検索方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190514

R151 Written notification of patent or utility model registration

Ref document number: 6529314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151