JP7396509B2 - 機械学習プログラム、機械学習方法および推定装置 - Google Patents

機械学習プログラム、機械学習方法および推定装置 Download PDF

Info

Publication number
JP7396509B2
JP7396509B2 JP2022551068A JP2022551068A JP7396509B2 JP 7396509 B2 JP7396509 B2 JP 7396509B2 JP 2022551068 A JP2022551068 A JP 2022551068A JP 2022551068 A JP2022551068 A JP 2022551068A JP 7396509 B2 JP7396509 B2 JP 7396509B2
Authority
JP
Japan
Prior art keywords
image
model
machine learning
subject
intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022551068A
Other languages
English (en)
Other versions
JPWO2022064660A1 (ja
JPWO2022064660A5 (ja
Inventor
淳哉 斎藤
昭嘉 内田
健太郎 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2022064660A1 publication Critical patent/JPWO2022064660A1/ja
Publication of JPWO2022064660A5 publication Critical patent/JPWO2022064660A5/ja
Application granted granted Critical
Publication of JP7396509B2 publication Critical patent/JP7396509B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、表情の推定技術に関する。
表情を推定するには、まず推定対象とする表情の記述方法を規定しなければならない。これまでに、AU(Action Unit:アクションユニット)と呼ばれる表情の記述方法が提案されている。AUは、顔面筋の解剖学的知見に基づき定義された、表情表出に関与する表情筋の動きを表す。
AUを推定するAU推定エンジンの代表的な形態は、大量の教師データに基づく機械学習をベースとし、教師データとして、顔表情の画像データと、各AUのOccurrence(発生の有無)やIntensity(発生強度)が用いられる。また、教師データのOccurrenceやIntensityは、Coder(コーダ)と呼ばれる専門家によりAnnotation(アノテーション)される。なお、以下では、Intensityのみを挙げて説明することがあるが、Occurrenceについても同様である。
米国特許出願公開第2019/294868号明細書 特開2020-57111号公報 特開2018-36734号公報
AUのIntensityは、表情筋の動きとして統一的に定義されている。ただし、外から観察できるものは、皮膚表面の移動量や見た目の変化(シワなど)であり、これは、年齢や骨格、肥満の程度、皮膚と表情筋の繋がり方などによって様々なバリエーションがあるため、全ての人に統一的なIntensityの境界基準(以下、単に「基準」と称する場合もある)を定義することは難しい。したがって、外から観察できるIntensityの境界基準は、曖昧なものにならざるを得ない。
コーダは、例えば、正解ラベルとしてIntensityを付与する対象の被写体の動画を見ながら、表情筋の動きを推測して一つ一つのフレーム画像にIntensityを付与していく。しかしながら、外から観察できるIntensityの境界基準は曖昧で、全ての人に対して統一的なものではないため、コーダが付与する正解ラベルは、被写体によって、境界の基準がずれることがある。
このため、上記の従来技術では、このような基準の異なるデータを含めて機械学習を行うことで誤った特徴を捉えたモデルが生成される場合があり、推定精度が低下するという問題がある。
1つの側面では、表情推定の精度を高めることができる機械学習プログラム、機械学習方法および推定装置を提供することを目的とする。
第1の案では、機械学習プログラムは、訓練済みモデルを生成する処理と、第3のモデルを生成する処理とをコンピュータに実行させる。訓練済みモデルを生成する処理は、第1の画像と第2の画像との組と、第1の画像と第2の画像とのうちどちらの画像が被写体の表情筋の動きが大きいかを示す第1のラベルとを含む訓練データの入力に応じて、第1の画像を第1のモデルに入力して得られる第1の出力値と、第2の画像を第1のモデルとパラメータを共有する第2のモデルに入力して得られる第2の出力値と、第1のラベルとに基づいた第1のモデルの機械学習を実行することによって、訓練済みモデルを生成する。第3のモデルを生成する処理は、第3の画像を訓練済みモデルに入力して得られた第3の出力値と、第3の画像に含まれる被写体の表情筋の動きの発生強度もしくは発生の有無を示す第2のラベルとに基づいた機械学習によって第3のモデルを生成する。
表情推定の精度を高めることができる。
図1は、実施形態の概要を説明する説明図である。 図2は、第1の実施形態にかかる情報処理装置の機能構成例を示すブロック図である。 図3は、第1の実施形態にかかる情報処理装置の動作例を示すフローチャートである。 図4は、第1の実施形態にかかる情報処理装置の動作例を示すフローチャートである。 図5は、第2の実施形態にかかる情報処理装置の機能構成例を示すブロック図である。 図6は、第3の実施形態にかかる情報処理装置の機能構成例を示すブロック図である。 図7は、第4の実施形態にかかる情報処理装置の機能構成例を示すブロック図である。 図8は、第4の実施形態にかかる情報処理装置の処理内容を説明する説明図である。 図9は、コンピュータ構成の一例を示すブロック図である。
以下、図面を参照して、実施形態にかかる機械学習プログラム、機械学習方法および推定装置を説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明する機械学習プログラム、機械学習方法および推定装置は、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。
(概要)
以下で説明する第1、第2、第3および第4の実施形態(まとめて本実施形態)では、AU推定エンジンの機械学習において、学習用の学習データセット(訓練データ)の中からIntensityの境界基準について、変化の影響を受けている情報を除外して学習を行う。
例えば、年齢や骨格、肥満の程度、皮膚と表情筋の繋がり方などによって訓練データに含まれる被写体間で基準が変化していても、同一被写体において基準は変化していない。そこで、本実施形態では、訓練データの中の同一被写体におけるIntensityの順序関係(どちらのIntensityが大きか)を学習し、Intensityの順序関係が保証されるIntensity(順序Intensityと呼ぶ)を推定できるモデルを生成する。
図1は、実施形態の概要を説明する説明図である。図1に示すように、本実施形態では、同一の被写体aの画像の組である画像ペア(a、a)と、その画像ペアのうちどちらの画像が被写体aの表情筋の動きが大きいかを示す正解ラベルとを学習データセットD1とする。
例えば、本実施形態では、コーダが正解フラグとして各画像に付与したIntensityを比較して正解ラベルを得る。一例として、画像aにおけるIntensityが画像aにおけるIntensityよりも大きい場合は「1」を正解ラベルとする。また、画像aにおけるIntensityが画像aにおけるIntensityよりも小さい場合は「0」を正解ラベルとする。本実施形態では、この学習データセットD1を複数の被写体それぞれについて用意する。
次いで、本実施形態では、用意した学習データセットD1を用いて、順序関係が保証される順序Intensityを算出できるようにニューラルネットワークNNの学習を行う。具体的には、ニューラルネットワークNNは、一般物体認識のデータセットなどで事前に学習させた事前学習モデルM1、M2(互いのパラメータ(重み)は共有)と、事前学習モデルM1、M2の出力値を評価するloss関数F1とを用いたネットワークである。
例えば、事前学習モデルM1からは、学習データセットD1における画像aの入力に対して、順序Intensity(Ia1)を出力値として得る。また、事前学習モデルM2からは、学習データセットD1における画像aの入力に対して、順序Intensity(Ia2)を出力値として得る。loss関数F1は、正解ラベルL1と、事前学習モデルM1、M2の出力値(Ia1,Ia2)をもとに、正解ラベルが1でIa1>Ia2もしくは、正解ラベルが0でIa1<Ia2であれば順序が正しいため、loss値を小さく算出する。また、loss関数F1は、正解ラベルが1でIa1<Ia2もしくは、正解ラベルが0でIa1>Ia2であれば順序が正しくないため、loss値を大きく算出し、算出したloss値を出力する。
本実施形態では、loss関数F1の出力するloss値が小さくなるように、ニューラルネットワークNNにおけるパラメータ(事前学習モデルM1のパラメータ)を再学習させる。これにより、再学習したパラメータを用いたモデル(訓練済みモデル)では、入力された画像に対し、順序関係が保証される順序Intensityを算出できるようになる。
次いで、本実施形態では、生成したモデルが推定した順序Intensityと、訓練データに含まれるコーダが付与した正解フラグ(例えば範囲が0~5のIntensityの値)から、順序IntensityをIntensityに変換する変換関数を学習する。この変換関数は、コーダが付与したOccurrenceに関する正解フラグから、順序IntensityをOccurrenceに変換するものであってもよい。
なお、基準の変化により、順序Intensityとコーダの正解フラグ(例えばIntensityの値)にはノイズが含まれるが、変換関数については、単純な単調増加関数の形を取るため、ノイズの影響を受けずに学習することが可能である。
このように、本実施形態では、機械学習を2段階に分けてモデルおよび変換関数を生成することで、Intensityの境界基準について、変化の影響を受けている情報を除外して学習を行う。このような機械学習により、本実施形態では、表情筋の動きなどの表情推定に関する特徴を正しく捉えたモデルを生成することができ、AU推定エンジンにおける表情推定の精度を高めることができる。
(第1の実施形態)
図2は、第1の実施形態にかかる情報処理装置の機能構成例を示すブロック図である。図2に示すように、情報処理装置1は、ペアデータセット作成部10、順序スコア学習部11、変換データセット作成部12、変換関数学習部13、順序スコア推定部30および変換処理部31を有する。
ここで、ペアデータセット作成部10、順序スコア学習部11、変換データセット作成部12および変換関数学習部13は、機械学習を実行する学習フェーズ(S1)に関する処理を主に行う機能部である。また、順序スコア推定部30および変換処理部31は、機械学習により生成したモデルを用いて推定対象の画像50からラベル51を推定する推定フェーズ(S2)に関する処理を主に行う機能部である。
ペアデータセット作成部10は、機械学習を行うための訓練データを格納する画像・ラベルDB40から、同一の被写体aの画像ペア(a、a)と、その画像ペアのどちらの画像が被写体aの表情筋の動きが大きいかを示す正解ラベルとを含む学習データセットD1を作成する処理部である。
具体的には、画像・ラベルDB40は、例えばコーダなどによる正解フラグ(例えばIntensity)と、被写体aを示す被写体情報などのメタデータとが付与された複数の被写体aに関する各画像を訓練データとして格納する。なお、画像・ラベルDB40が格納する訓練データには、各画像を一フレームとする動画像を含めてもよい。ペアデータセット作成部10は、例えば、画像・ラベルDB40の各画像におけるメタデータをもとに同一の被写体aの画像の組である画像ペアを得る。また、ペアデータセット作成部10は、互いの画像における被写体aの表情筋の動きの差(例えばIntensityの差)が特定値以上である画像ペアを画像・ラベルDB40より得てもよい。
なお、同一の被写体aについては、本実施形態では例えば被写体情報における被写体IDが同じ同一人物であるものとするが、被写体間でIntensityの境界基準が変化しないような属性(例えば年齢、性別、人種)が同一の被写体aであってもよい。また、同一人物の動画が複数に分けられており、分けられた動画の単位で、コーダが正解フラグを付与する場合、Intensityの境界基準の曖昧さにより、同一人物であっても、動画によって基準がぶれている可能性があるため、このような場合では、動画が同じ場合のみ、同一の被写体aとして扱うようにしてもよい。
次いで、ペアデータセット作成部10は、画像ペアのメタデータに含まれる正解フラグを比較することで、画像ペアのどちらの画像が被写体aの表情筋の動きが大きいかを示す正解ラベルを得る。上記の処理を繰り返すことで、ペアデータセット作成部10では、複数の被写体aそれぞれについての学習データセットD1を作成する。
順序スコア学習部11は、ペアデータセット作成部10が作成した学習データセットD1を用いて、順序関係が保証される順序Intensityを算出できるようにニューラルネットワークNNの学習を行う処理部である。
具体的には、順序スコア学習部11は、事前学習モデルM1、M2のパラメータ(重み)を格納する事前学習モデルDB41より取得したパラメータで事前学習モデルM1、M2(互いのパラメータは共有)を構築する。事前学習モデルM1、M2は、例えば、ImageNetデータセットで事前に学習させたVGG16などであり、最終層の出力を1次元としている。
また、順序スコア学習部11は、事前学習モデルM1、M2の出力値と、正解ラベルL1をもとに、loss関数F1により、loss値を得るようにする。ここで、loss関数F1については、例えば、次の式(1)のような関数を用いるものとする。
Figure 0007396509000001
次いで、順序スコア学習部11は、loss関数F1の出力するloss値が小さくなるように、ニューラルネットワークNNにおけるパラメータ(事前学習モデルM1のパラメータ)を再学習させる。なお、ニューラルネットワークNNについては、他の例として、ResNetとしてもよい。また、顔画像データセットを用いて事前学習させたモデルを利用してもよい。さらに、事前学習させず、乱数により重みを初期化したモデルを利用してもよい。順序スコア学習部11は、再学習により得られたパラメータを学習モデルDB20に格納する。
変換データセット作成部12は、変換関数学習部13が変換関数を学習するためのデータセットを作成する処理部である。具体的には、変換データセット作成部12は、画像・ラベルDB40の訓練データに含まれる画像と、画像に付与された正解フラグ(例えばIntensityまたはOccurrence)とを読み取る。次いで、変換データセット作成部12は、読み取った画像を順序スコア推定部30に入力し、順序スコア学習部11の学習により生成した訓練済みモデルからの出力(順序Intensity)を取得する。次いで、変換データセット作成部12は、取得した順序Intensityに対して画像に付与された正解フラグのIntensity(またはOccurrence)を正解ラベルとするデータセットを作成する。
変換関数学習部13は、変換データセット作成部12が作成したデータセットを用いて、順序IntensityをIntensity(またはOccurrence)に変換する変換関数を機械学習する処理部である。変換関数学習部13は、機械学習により得られた変換関数に関するパラメータを変換モデルDB21に格納する。
具体的には、変換関数学習部13は、変換データセット作成部12が作成したデータセットをもとに、範囲が0~5のIntensityの値を連続値として出力するように、回帰学習をして変換関数を求める。また、変換関数学習部13は、[0,1,2,3,4,5]の離散値を出力するように(Occurrenceの場合は0,1の離散値)、分類学習をして変換関数を求めてもよい。回帰学習または分類学習のいずれの場合も、変換関数学習部13は、ニューラネットワークやSVM(Support Vector Machine)などの公知の機械学習手法により変換関数を得ることができる。
順序スコア推定部30は、入力された画像(例えば推定対象として入力された画像50)から順序Intensityを推定する処理部である。
具体的には、順序スコア推定部30は、順序スコア学習部11が学習して生成したモデルのパラメータ(重み)を学習モデルDB20より読み出し、モデルを構築する。次いで、順序スコア推定部30は、推定対象の画像50をモデルに入力することで、順序Intensityを推定する。
変換処理部31は、順序スコア推定部30が推定した順序Intensityを変換関数によりIntensity(またはOccurrence)に変換する処理部である。変換処理部31は、変換したIntensity(またはOccurrence)を画像50に対する推定結果を示す画像50として出力する。
具体的には、変換処理部31は、変換関数学習部13が学習した変換関数のパラメータを変換モデルDB21から読み出し、変換関数を構築する。次いで、変換処理部31は、構築した変換関数により、順序スコア推定部30が推定した順序IntensityをIntensity(またはOccurrence)に変換し、画像50として出力する。
なお、変換処理部31は、変換関数について連続値を出力するように回帰学習した場合は、出力範囲を定義域(0~5)内に制限するため、上限5、下限0で制限するように補正してもよい。また、変換処理部31は、小数点以下の四捨五入により、0,1,2,3,4,5の6段階に出力値を離散化してもよい。
図3は、第1の実施形態にかかる情報処理装置1の動作例を示すフローチャートである。より具体的には、図3は、情報処理装置1における学習フェーズ(S1)の動作例を示すフローチャートである。
図3に示すように、処理が開始されると、ペアデータセット作成部10は、画像・ラベルDB40から同一の被写体aに関する画像ペアと、Intensityの順序関係を表す正解ラベルとを含む学習データセットD1を作成する(S11)。
次いで、順序スコア学習部11は、作成した学習データセットD1よりニューラルネットワークNNの再学習を行い(S12)、学習したニューラルネットワークNNのパラメータ(事前学習モデルM1のパラメータ)を学習モデルDB20に格納する(S13)。次いで、変換データセット作成部12は、画像・ラベルDB40から画像と、画像に付与された正解フラグ(例えばIntensity)とを読み込む(S14)。
次いで、変換データセット作成部12は、読み取った画像を順序スコア推定部30に入力し、順序スコア学習部11の学習により生成した訓練済みモデルからの出力(順序Intensity)を取得する。次いで、変換データセット作成部12は、取得した順序Intensityに対して画像に付与された正解フラグのIntensityを正解ラベルとする学習データセットを作成する(S15)。
次いで、変換関数学習部13は、変換データセット作成部12が作成した学習データセットより、変換関数の学習を行う(S16)。次いで、変換関数学習部13は、学習した変換関数のパラメータを変換モデルDB21に格納し(S17)、処理を終了する。
図4は、第1の実施形態にかかる情報処理装置1の動作例を示すフローチャートである。より具体的には、図4は、情報処理装置1における推定フェーズ(S2)の動作例を示すフローチャートである。
図4に示すように、処理が開始されると、順序スコア推定部30は、推定対象の画像50を取得する(S21)。次いで、順序スコア推定部30は、学習モデルDB20よりパラメータを取得してニューラルネットワーク(訓練済みモデル)を構築する(S22)。
次いで、順序スコア推定部30は、構築したニューラルネットワーク(訓練済みモデル)に画像50を入力して出力値を得ることで、画像50に対する順序Intensityを推定する(S23)。
次いで、変換処理部31は、変換モデルDB21よりパラメータを取得して変換関数を構築する(S24)。次いで、変換処理部31は、構築した変換関数により、順序スコア推定部30が推定した順序IntensityをIntensityに変換する(S25)。次いで、変換処理部31は、変換したIntensityを推定したラベル51として出力する(S26)。
(第2の実施形態)
第2の実施形態では、訓練データの付与される正解フラグについて、コーダのものだけでなく、被写体の表情筋の動きを計測した計測装置の計測結果(Intensityもしくは表情筋移動量)を含めるものとする。
図5は、第2の実施形態にかかる情報処理装置の機能構成例を示すブロック図である。図5に示すように、画像・ラベルDB40aは、計測装置の計測結果(Intensityもしくは表情筋移動量)の正解フラグと、被写体aを示す被写体情報などのメタデータとが付与された複数の被写体aに関する各画像を訓練データとして格納する。
情報処理装置1aのペアデータセット作成部10aは、画像・ラベルDB40、40aを参照し、同一の被写体aの画像ペア(a、a)と、その画像ペアのどちらの画像が被写体aの表情筋の動きが大きいかを示す正解ラベルとを含む学習データセットD1を作成する。
コーダが付与した正解フラグ(例えばIntensity)には、人為的なミスにより、同一の被写体aであってもノイズが含まれる場合がある。これに対し、計測装置の計測結果には、人為的なミスによるノイズが生じない。したがって、計測装置の計測結果を正解フラグに含めることで、順序関係の学習精度を高める効果を期待できる。
(第3の実施形態)
第3の実施形態では、コーダが正解フラグを付与した訓練データを用いず、計測装置の計測結果が正解フラグとして付与された訓練データを用いて第1段階の学習を行うものとする。なお、第2段階の学習(変換関数の学習)については、コーダが正解フラグを付与した訓練データを用いるものとする。
図6は、第3の実施形態にかかる情報処理装置の機能構成例を示すブロック図である。図6に示すように、情報処理装置1bのペアデータセット作成部10aは、画像・ラベルDB40を参照せず、画像・ラベルDB40aを参照して学習データセットD1を作成する。なお、変換データセット作成部12は、画像・ラベルDB40を参照して変換関数学習部13が変換関数を学習するためのデータセットを作成する。
このように、情報処理装置1bでは、コーダが付与した正解フラグを用いず、計測装置の計測結果を用いて順序関係を学習することで、順序関係の学習精度をより高める効果を期待できる。
(第4の実施形態)
第4の実施形態では、学習フェーズ(S1)において、画像を一フレーム画像として含む、動画像の特徴量を含めた機械学習により変換関数を機械学習する。また、推定フェーズ(S2)では、推定対象の画像50を一フレーム画像として含む元動画の特徴量をもとに、変換関数によりラベル51を推定する。
図7は、第4の実施形態にかかる情報処理装置の機能構成例を示すブロック図である。図7に示すように、情報処理装置1cの変換データセット作成部12aは、画像・ラベルDB40に含まれる画像とともに、その画像を一フレームとする動画像を取得する。次いで、変換データセット作成部12aは、取得した動画像を解析することで、動画像の特徴量を取得し、取得した特徴量を変換関数を学習するためのデータセットに含める。
情報処理装置1cの変換関数学習部13aは、変換データセット作成部12が作成したデータセットを用いて、順序IntensityをIntensity(またはOccurrence)に変換する変換関数を機械学習する際に、動画像に基づく特徴量を含めた機械学習を行う。
図8は、第4の実施形態にかかる情報処理装置1cの処理内容を説明する説明図である。図8におけるS30は、変換データセット作成部12aが実行する具体的な処理を示す。また、図8におけるS40は、変換関数学習部13aでの処理に関係する構成を示す。
図8に示すように、変換データセット作成部12aは、画像・ラベルDB40の画像42を順序スコア推定部30に入力し、訓練済みモデル(ニューラルネットワーク(VGG))からの出力値(順序Intensity)を取得する(S31)。
また、変換データセット作成部12aは、画像42を一フレームとする動画像43を順序スコア推定部30に入力し、訓練済みモデル(ニューラルネットワーク(VGG))から時系列の出力値(順序Intensityの時系列データ)を取得する(S32)。
S32に次いで、変換データセット作成部12aは、時系列データの分布に関する特徴量を抽出する(S33)。具体的には、変換データセット作成部12aは、時系列データに基づくヒストグラム(例えば順序Intensity-10以下の頻度、-10~-9の頻度、-9~-8の頻度、…、9~10の頻度、10以上の頻度)を求める。また、変換データセット作成部12aは、時系列データに基づくパーセンタイル(0-th percentile、10-th percentile、…、100-th percentile)を求める。
また、S32に次いで、変換データセット作成部12aは、時系列データに基づく画像選定処理を行う(S34)。具体的には、変換データセット作成部12aは、時系列データの中で順序Intensityが所定の条件を満たす1または複数の画像を選定する(例えば最小の順序Intensityの画像の選定)。
S34に次いで、変換データセット作成部12aは、選定した画像について、画像特徴量・顔特徴量などの抽出処理を行う(S35)。具体的には、変換データセット作成部12aは、画像のSIFT特徴量と、その画像のランドマークなどを抽出する。
変換関数学習部13aでは、S30により作成されたデータセットを変換関数のモデルであるLSTM22、VGG23および全結合ニューラルネットワーク24に入力し、Intensity25を得る。
具体的には、全結合ニューラルネットワーク24には、S31による画像の順序Intensityと、その他の特徴量が入力されるように構成する。例えば、時系列データそのものが入力されるネットワークにはLSTM22などの時系列データ向けのネットワークを使用する。また、画像データそのものが入力されるネットワークにはVGG23などの画像データ向けのネットワークを使用する。また、LSTM22の出力およびVGG23の出力が、全結合ニューラルネットワーク24に接続されるように構成する。
図7に戻り、変換処理部31aは、変換モデルDB21のパラメータをもとに構築した変換関数により、順序スコア推定部30が推定した順序Intensityと、元動画50aの特徴量とをもとにラベル51を推定する。具体的には、変換処理部31aは、元動画50aの特徴量を変換データセット作成部12aと同様に求め、順序Intensityと共に変換関数に入力することでラベル51を推定する。
このように、第4の実施形態では、動画の特徴量を含めることで、より精度の高い表情推定を実現することが可能となる。
以上のように、情報処理装置1は、画像・ラベルDB40に含まれる画像ペアと、画像ペアのうちどちらの画像が被写体の表情筋の動きが大きいかを示す正解ラベルとを含むペアデータセットを作成する。次いで、情報処理装置1は、画像ペアのうちの第1の画像を事前学習モデルM1に入力して得られる出力値と画像ペアのうちの第2の画像を事前学習モデルM1とパラメータを共有する事前学習モデルM2に入力して得られる出力値と、第1のラベルとに基づいた事前学習モデルM1の機械学習を実行することによって、訓練済みモデルを生成する。次いで、情報処理装置1は、画像・ラベルDB40に含まれる第3の画像を訓練済みモデルに入力して得られた出力値と、その画像に含まれる被写体の表情筋の動きの発生強度もしくは発生の有無を示すラベルとに基づいた機械学習によってモデル(変換関数)を生成する。
このように2段階に分けた機械学習により、情報処理装置1は、表情筋の動きなどの表情推定に関する特徴を正しく捉えて推定するためのモデルを生成することができる。また、情報処理装置1は、このように生成したモデルを用いて、推定対象の画像50に対するラベル51の推定、すなわち表情推定を行うことで、表情推定の精度を高めることができる。
また、訓練済みモデルの生成に関する画像ペアは、同じ被写体の画像ペアである。例えば、年齢や骨格、肥満の程度、皮膚と表情筋の繋がり方などによって画像・ラベルDB40に含まれる画像の被写体間で基準が変化していても、同じ被写体において基準は変化していない。したがって、同じ被写体の画像ペアで訓練済みモデルの生成を行うことで、情報処理装置1では、被写体の表情筋の動きが大きいかを(Intensityの順序関係)をより適切に推定できる訓練済みモデルを生成することができる。
また、ペアデータセットにおける正解ラベルは、被写体の表情筋の動きを計測した計測装置の計測結果(例えばIntensity)に基づいて付与される。例えば、同じ表情筋の動きであってもその移動量は人によって異なるものであり、専門家であるコーダが付与した場合と同様に、計測装置の計測結果においても被写体によって基準がずれたものとなる。情報処理装置1では、このような計測装置の計測結果に基づく正解ラベルが付与される場合においても、表情推定に関する特徴を正しく捉えて推定するためのモデルを生成することができる。
また、訓練済みモデルの生成に関する画像ペアは、互いの画像における被写体の表情筋の動きの差が特定値以上である。このように、被写体の表情筋の動きの差が特定値以上であり、被写体の表情筋の動きに明確な違いのある画像ペアを使用することで、より精度のよいモデルを生成することができる。
また、訓練済みモデルの生成に関する画像ペアは、表情筋の動きの大きさが同じペアでもよいとする。この場合は、loss関数F1として、例えば次の式(2)を使用する。
Figure 0007396509000002
情報処理装置1では、表情筋の動きの大きさが同じペアも使用することで、より精度のよいモデルを生成することができる。
また、情報処理装置は、第3の画像を含む動画像に基づく特徴量を含めた機械学習によってモデル(変換関数)を生成する。このように動画の特徴量を含めることで、情報処理装置は、より精度のよいモデルを生成することができる。
また、第3の画像を含む動画像に基づく特徴量は、動画像に含まれる画像群による時系列データ、この時系列データの分布に関する特徴量、時系列データの分布に基づいて画像群より選択した1または複数の画像、および、この1または複数の画像の特徴量の少なくとも1つであってもよい。情報処理装置では、このような特徴量を含めて機械学習を行うことで、より精度のよいモデルを生成することができる。
(その他)
なお、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、情報処理装置1、1a、1b、1cにおける学習フェーズ(S1)を行う機能構成と、推定フェーズ(S2)を行う機能構成とは、分離した構成であってもよく、それぞれが独立した装置構成で実現してもよい。
また、情報処理装置1、1a、1b、1cで行われるペアデータセット作成部10、10a、順序スコア学習部11、変換データセット作成部12、12a、変換関数学習部13、13a、順序スコア推定部30および変換処理部31、31aの各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータやGPU(Graphics Processing Unit))上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータやGPU)で解析実行されるプログラム上、またはワイヤードロジックによるハードウエア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。また、情報処理装置1、1a、1b、1cで行われる各種処理機能は、クラウドコンピューティングにより、複数のコンピュータが協働して実行してもよい。
(コンピュータ構成例)
ところで、上記の実施形態で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施形態と同様の機能を有するプログラムを実行するコンピュータ構成(ハードウエア)の一例を説明する。図9は、コンピュータ構成の一例を示すブロック図である。
図9に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、データ入力を受け付ける入力装置202と、モニタ203と、スピーカー204とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る媒体読取装置205と、各種装置と接続するためのインタフェース装置206と、有線または無線により外部機器と通信接続するための通信装置207とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM208と、ハードディスク装置209とを有する。また、コンピュータ200内の各部(201~209)は、バス210に接続される。
ハードディスク装置209には、上記の各実施形態で説明した機能構成(例えばペアデータセット作成部10、10a、順序スコア学習部11、変換データセット作成部12、12a、変換関数学習部13、13a、順序スコア推定部30および変換処理部31、31a)における各種の処理を実行するためのプログラム211が記憶される。また、ハードディスク装置209には、プログラム211が参照する各種データ212が記憶される。入力装置202は、例えば、操作者から操作情報の入力を受け付ける。モニタ203は、例えば、操作者が操作する各種画面を表示する。インタフェース装置206は、例えば印刷装置等が接続される。通信装置207は、LAN(Local Area Network)等の通信ネットワークと接続され、通信ネットワークを介した外部機器との間で各種情報をやりとりする。
CPU201は、ハードディスク装置209に記憶されたプログラム211を読み出して、RAM208に展開して実行することで、上記の機能構成(例えばペアデータセット作成部10、10a、順序スコア学習部11、変換データセット作成部12、12a、変換関数学習部13、13a、順序スコア推定部30および変換処理部31、31a)に関する各種の処理を行う。なお、プログラム211は、ハードディスク装置209に記憶されていなくてもよい。例えば、コンピュータ200が読み取り可能な記憶媒体に記憶されたプログラム211を読み出して実行するようにしてもよい。コンピュータ200が読み取り可能な記憶媒体は、例えば、CD-ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこのプログラム211を記憶させておき、コンピュータ200がこれらからプログラム211を読み出して実行するようにしてもよい。
1、1a、1b、1c…情報処理装置
10、10a…ペアデータセット作成部
11…順序スコア学習部
12、12a…変換データセット作成部
13、13a…変換関数学習部
20…学習モデルDB
21…変換モデルDB
22…LSTM
23…VGG
24…全結合ニューラルネットワーク
25…Intensity
30…順序スコア推定部
31、31a…変換処理部
40、40a…画像・ラベルDB
41…事前学習モデルDB
42…画像
43…動画像
50…画像
50a…元動画
51…ラベル
200…コンピュータ
201…CPU
202…入力装置
203…モニタ
204…スピーカー
205…媒体読取装置
206…インタフェース装置
207…通信装置
208…RAM
209…ハードディスク装置
210…バス
211…プログラム
212…各種データ
a…被写体
D1…学習データセット
F1…loss関数
L1…正解ラベル
M1、M2…事前学習モデル
NN…ニューラルネットワーク

Claims (8)

  1. 第1の画像と第2の画像との組と、前記第1の画像と前記第2の画像とのうちどちらの画像が被写体の表情筋の動きが大きいかを示す第1のラベルとを含む訓練データの入力に応じて、前記第1の画像を第1のモデルに入力して得られる第1の出力値と、前記第2の画像を前記第1のモデルとパラメータを共有する第2のモデルに入力して得られる第2の出力値と、前記第1のラベルとに基づいた前記第1のモデルの機械学習を実行することによって、訓練済みモデルを生成し、
    第3の画像を前記訓練済みモデルに入力して得られた第3の出力値と、前記第3の画像に含まれる被写体の表情筋の動きの発生強度もしくは発生の有無を示す第2のラベルとに基づいた機械学習によって第3のモデルを生成する、
    処理をコンピュータに実行させることを特徴とする機械学習プログラム。
  2. 前記第1の画像と前記第2の画像との組は、同じ被写体の画像の組である、
    ことを特徴とする請求項1に記載の機械学習プログラム。
  3. 前記第1のラベルは、前記被写体の表情筋の動きを計測した計測装置の計測結果に基づいて付与される、
    ことを特徴とする請求項1に記載の機械学習プログラム。
  4. 前記第1の画像と前記第2の画像との組は、互いの画像における前記被写体の表情筋の動きの差が特定値以上の画像の組である、
    ことを特徴とする請求項1に記載の機械学習プログラム。
  5. 前記第3のモデルを生成する処理は、前記第3の画像を含む動画像に基づく特徴量を含めた機械学習によって前記第3のモデルを生成する、
    ことを特徴とする請求項1に記載の機械学習プログラム。
  6. 前記特徴量は、前記動画像に含まれる画像群を前記訓練済みモデルに入力して得られた出力値の時系列データ、当該時系列データの分布に関する特徴量、前記時系列データの分布に基づいて前記画像群より選択した1または複数の画像、および、当該1または複数の画像の特徴量の少なくとも1つである、
    ことを特徴とする請求項5に記載の機械学習プログラム。
  7. 第1の画像と第2の画像との組と、前記第1の画像と前記第2の画像とのうちどちらの画像が被写体の表情筋の動きが大きいかを示す第1のラベルとを含む訓練データの入力に応じて、前記第1の画像を第1のモデルに入力して得られる第1の出力値と、前記第2の画像を前記第1のモデルとパラメータを共有する第2のモデルに入力して得られる第2の出力値と、前記第1のラベルとに基づいた前記第1のモデルの機械学習を実行することによって、訓練済みモデルを生成し、
    第3の画像を前記訓練済みモデルに入力して得られた第3の出力値と、前記第3の画像に含まれる被写体の表情筋の動きの発生強度もしくは発生の有無を示す第2のラベルとに基づいた機械学習によって第3のモデルを生成する、
    処理をコンピュータが実行することを特徴とする機械学習方法。
  8. 第1の画像と第2の画像との組と、前記第1の画像と前記第2の画像とのうちどちらの画像が被写体の表情筋の動きが大きいかを示す第1のラベルとを含む訓練データに基づいた機械学習によって生成された第1の機械学習モデルに第3の画像を入力し、第1の出力結果を取得し、
    第4の画像を前記機械学習モデルに入力して得られた第2の出力結果と、前記第4の画像に含まれる被写体の表情筋の動きの発生強度を示す第2のラベルとを含む訓練データに基づいた機械学習によって生成された第2の機械学習モデルに、前記第1の出力結果を入力し、前記第3の画像に含まれる被写体の表情筋の動きの発生強度もしくは発生の有無を推定する、
    処理を実行する制御部を有する推定装置。
JP2022551068A 2020-09-25 2020-09-25 機械学習プログラム、機械学習方法および推定装置 Active JP7396509B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/036456 WO2022064660A1 (ja) 2020-09-25 2020-09-25 機械学習プログラム、機械学習方法および推定装置

Publications (3)

Publication Number Publication Date
JPWO2022064660A1 JPWO2022064660A1 (ja) 2022-03-31
JPWO2022064660A5 JPWO2022064660A5 (ja) 2023-05-15
JP7396509B2 true JP7396509B2 (ja) 2023-12-12

Family

ID=80846435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022551068A Active JP7396509B2 (ja) 2020-09-25 2020-09-25 機械学習プログラム、機械学習方法および推定装置

Country Status (5)

Country Link
US (1) US20230237845A1 (ja)
EP (1) EP4220546A4 (ja)
JP (1) JP7396509B2 (ja)
CN (1) CN116018613A (ja)
WO (1) WO2022064660A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014119879A (ja) 2012-12-14 2014-06-30 Nippon Hoso Kyokai <Nhk> 顔表情評価結果平滑化装置および顔表情評価結果平滑化プログラム
CN109657586A (zh) 2018-12-10 2019-04-19 华中师范大学 一种基于排序卷积神经网络的人脸表情分析方法及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3465615A4 (en) 2016-06-01 2020-05-06 The Ohio State Innovation Foundation SYSTEM AND METHOD FOR RECOGNIZING AND ANNOTATING FACE EXPRESSIONS
JP2018036734A (ja) 2016-08-29 2018-03-08 日本放送協会 表情変化検出装置及びプログラム
KR102564854B1 (ko) * 2017-12-29 2023-08-08 삼성전자주식회사 정규화된 표현력에 기초한 표정 인식 방법, 표정 인식 장치 및 표정 인식을 위한 학습 방법
JP2020057111A (ja) 2018-09-28 2020-04-09 パナソニックIpマネジメント株式会社 表情判定システム、プログラム及び表情判定方法
CN110765873B (zh) * 2019-09-19 2022-08-16 华中师范大学 一种基于表情强度标签分布的面部表情识别方法与装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014119879A (ja) 2012-12-14 2014-06-30 Nippon Hoso Kyokai <Nhk> 顔表情評価結果平滑化装置および顔表情評価結果平滑化プログラム
CN109657586A (zh) 2018-12-10 2019-04-19 华中师范大学 一种基于排序卷积神经网络的人脸表情分析方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SU Lumei, et al.,Early Facial Expression Recognition using Early RankBoost,2013 10th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition (FG),米国,2013年,Retrieved from the Internet:<URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6553740>
YANG Peng, et al.,RankBoost with l1 regularization for Facial Expression Recognition and Intensity Estimation,2009 IEEE 12th International Conference on Computer Vision (ICCV),米国,2009年,pp.1018-1025,Retrieved from the Internet:<URL:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=5459371&tag=1>

Also Published As

Publication number Publication date
JPWO2022064660A1 (ja) 2022-03-31
US20230237845A1 (en) 2023-07-27
WO2022064660A1 (ja) 2022-03-31
EP4220546A4 (en) 2023-10-25
CN116018613A (zh) 2023-04-25
EP4220546A1 (en) 2023-08-02

Similar Documents

Publication Publication Date Title
Sathiyamoorthi et al. A deep convolutional neural network based computer aided diagnosis system for the prediction of Alzheimer's disease in MRI images
Takagi et al. High-resolution image reconstruction with latent diffusion models from human brain activity
JP7014100B2 (ja) 拡張装置、拡張方法及び拡張プログラム
US10482352B2 (en) Information processing device and non-transitory computer readable medium
Zhang et al. Age progression/regression by conditional adversarial autoencoder
JP6889728B2 (ja) 畳み込みニューラルネットワークにおける構造学習
US10691971B2 (en) Method and apparatus for recognizing object
Panwar et al. Modeling EEG data distribution with a Wasserstein generative adversarial network to predict RSVP events
EP3364868B1 (en) Generating natural language representations of mental content from functional brain images
JP6270182B2 (ja) 属性要因分析方法、装置、およびプログラム
Xiang et al. Towards interpretable skin lesion classification with deep learning models
JP7276018B2 (ja) 学習方法、推定方法および学習プログラム
CN110263880A (zh) 脑疾病分类模型的构建方法、装置及智能终端
US20190228302A1 (en) Learning method, learning device, and computer-readable recording medium
Wismüller et al. Large-scale nonlinear Granger causality: A data-driven, multivariate approach to recovering directed networks from short time-series data
Whig et al. Gan for augmenting cardiac MRI segmentation
JP7396509B2 (ja) 機械学習プログラム、機械学習方法および推定装置
Anwaar et al. Face image synthesis with weight and age progression using conditional adversarial autoencoder
US20230046705A1 (en) Storage medium, determination device, and determination method
JP6947460B1 (ja) プログラム、情報処理装置、及び方法
CN116152645A (zh) 一种融合多种表征平衡策略的室内场景视觉识别方法及系统
JP7161111B2 (ja) 重みマスク生成装置、重みマスク生成方法及びプログラム
Atallah et al. NEURAL NETWORK WITH AGNOSTIC META-LEARNING MODEL FOR FACE-AGING RECOGNITION
Guo et al. Age transformation based on deep learning: a survey
US20200294669A1 (en) Learning method, estimating method, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231113

R150 Certificate of patent or registration of utility model

Ref document number: 7396509

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150