JP6977551B2 - 情報処理装置、情報処理方法、および、情報処理プログラム - Google Patents

情報処理装置、情報処理方法、および、情報処理プログラム Download PDF

Info

Publication number
JP6977551B2
JP6977551B2 JP2017249607A JP2017249607A JP6977551B2 JP 6977551 B2 JP6977551 B2 JP 6977551B2 JP 2017249607 A JP2017249607 A JP 2017249607A JP 2017249607 A JP2017249607 A JP 2017249607A JP 6977551 B2 JP6977551 B2 JP 6977551B2
Authority
JP
Japan
Prior art keywords
moving image
motion
estimated value
object captured
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017249607A
Other languages
English (en)
Other versions
JP2019114211A (ja
Inventor
大気 関井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017249607A priority Critical patent/JP6977551B2/ja
Publication of JP2019114211A publication Critical patent/JP2019114211A/ja
Application granted granted Critical
Publication of JP6977551B2 publication Critical patent/JP6977551B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、機械学習で利用される情報処理技術に関する。
カメラで撮像された動画から人物の行動を認識する技術がある。行動認識の頑健性を高めるために、この技術に、機械学習を用いることが提案されている。例えば、人物の行動が写された動画と、この動画が逆再生された動画(逆再生動画)とを用いた深層学習により、行動認識をする技術が提案されている(例えば、非特許文献1)。
バーラト・シン(Bharat Singh)、他4名、「きめ細かい行動検知のための、マルチストリーム双方向再帰型ニューラルネットワーク(A Multi−Stream Bi−Directional Recurrent Neural Network for Fine−Grained Action Detection)」、[online ]、p.1−8、[平成29年12月12日検索]、インターネット〈URL:http://www.cs.umd.edu/~bharat/cvpr2016.pdf〉
教師あり学習の場合、学習器が、データと教師データ(ラベル)とのペアが多数集められたデータセットを学習することにより、学習モデルを構築する。教師あり学習の精度を高めるためには、データと教師データとのペアの数を多くする必要がある。上記行動認識技術の場合、データは、人物の行動が写された動画である。
逆再生動画をデータに利用できれば、データの数を増やすことができる。例えば、歩く人物が写された動画の逆再生動画を、「歩く人物」を認識する学習に利用するのである。しかし、動作によっては、逆再生動画に写された動作が、もとの動画に写された動作と別の動作と見なしたほうが妥当なことがある。例えば、人間が椅子に座る動作が写された動画の逆再生動画には、人間が椅子から立つ動作と見なせる動作が写されている。従って、この逆再生動画について、教師データを「人間が椅子に座る動作」とすれば、機械学習の精度が悪くなる。
本発明の目的は、逆再生動画を機械学習に利用した場合に、機械学習の精度を向上させることができる情報処理装置、情報処理方法および情報処理プログラムを提供することである。
本発明の第1局面に係る情報処理装置は、第1動作および前記第1動作と逆の動作である第2動作のうち、前記第1動作が写された第1動画を、前記第1動画を逆再生した第2動画に変換する変換部と、前記第1動画および前記第2動画のうち、一方の動画に写された前記物体の動作を示す動作情報を基にして、他方の動画に写された前記物体の動作を示す動作情報を決定する決定部と、前記他方の動画と前記決定部が決定した動作情報とを紐付ける紐付け部と、を備える。
第1動作および第1動作と逆の動作である第2動作とは、一方の動作が他方の動作の逆である一対の動作である。例えば、人間が椅子に座る動作と人間が椅子から立つ動作、人間がテーブルの上に置かれた物を取る動作と人間がテーブルの上に物を戻す動作である。
上記一対の動作の場合、第1動作をする物体が写された第1動画の逆再生動画(第2動画)は、第2動作と見なすことができる動作をする物体が写された動画である。例えば、人間が椅子に座る動作が写された第1動画の逆再生動画(第2動画)は、人間が椅子に座る動作を未来から過去へ再生する動画であるが、人間が椅子から立つ動作と見なすことができる動作が写された動画である。逆に、人間が椅子から立つ動作が写された第1動画の逆再生動画(第2動画)は、人間が椅子から立つ動作を未来から過去へ再生する動画であるが、人間が椅子に座る動作と見なすことができる動作が写された動画である。
第1動画および第2動画において、動画に写されてる物体の動作を示す動作情報(例えば、ラベル(言い換えれば、教師データ)を同じにすれば、機械学習の精度が悪くなる。
そこで、決定部は、第1動画および第2動画のうち、一方の動画に写された物体の動作を示す動作情報を基にして、他方の動画に写された物体の動作を示す動作情報を決定する。例えば、決定部は、一方の動画に写された物体の動作を示す動作情報が「人間が椅子に座る動作」の場合、他方の動画に写された物体の動作を示す動作情報を「人間が椅子から立つ動作」と決定する。
従って、本発明の第1局面に係る情報処理装置によれば、逆再生動画を機械学習に利用した場合に、機械学習の精度を向上させることができる。
本発明の第1局面に係る情報処理装置は、以下の第1態様から第3態様がある。
第1態様は、前記第1動作を示す動作情報である第1ラベルと前記第2動作を示す動作情報である第2ラベルとを紐付けて予め記憶する記憶部をさらに備え、前記変換部は、前記一方の動画である前記第1動画と前記第1ラベルのペアに対して、前記ペアを構成する前記第1動画を前記第2動画に変換し、前記決定部は、前記ペアを構成する前記第1ラベルと紐付けて記憶されている前記第2ラベルを、前記他方の動画である前記第2動画に写された前記物体の動作を示す動作情報に決定し、前記紐付け部は、前記第2動画と前記第2ラベルとを紐付ける。
第1態様は、一方の動画が第1動画であり、他方の動画が第2動画であり、動作情報がラベルの場合である。第1態様によれば、第2動画の撮像がされることなく、第2動画と第2ラベルとを紐付けたペアを生成することができる。このペアは、例えば、データセットを構成するペアとして、利用することができる。
第2態様は、前記一方の動画である前記第1動画について、前記第1動画に写された前記物体の動作が前記第1動作である推定値と前記第2動作である推定値とを算出する機械学習部をさらに備え、前記決定部は、前記機械学習部が算出した前記第1動作である推定値を前記第2動作である推定値とし、前記機械学習部が算出した前記第2動作である推定値を前記第1動作である推定値とした組み合わせを、前記他方の動画である前記第2動画に写された前記物体の動作を示す動作情報に決定し、前記紐付け部は、前記第2動画と前記組み合わせとを紐付ける。
第2態様は、一方の動画が第1動画であり、他方の動画が第2動画であり、動作情報が推定値(例えば、尤度、確率)の場合である。
機械学習部は、第1動画を学習して、第1動画に写された物体の動作が第1動作である推定値と第2動作である推定値とを算出する。第1動画に写された物体の動作は、第1動作なので、第1動作である推定値(例えば、90%)は、第2動作である推定値(例えば、10%)より高くなる。
決定部は、第1動作である推定値(例えば、90%)を第2動作である推定値とし、第2動作である推定値(例えば、10%)を第1動作である推定値とした組み合わせを、第2動作を示す動作情報と見なし、これを第2動画に写された物体の動作情報と決定する。
第2態様によれば、機械学習部が第2動画を学習することなく、第2動画と、第2動画に写された物体の動作情報とを紐付けたペアを生成することができる。このペアは、例えば、データセットを構成するペアとして、利用することができる。
第3態様は、前記第1動画について、前記第1動画に写された前記物体の動作が前記第1動作である推定値と前記第2動作である推定値とを算出し、かつ、前記第2動画について、前記第2動画に写された前記物体の動作が前記第2動作である推定値と前記第1動作である推定値とを算出する機械学習部をさらに備え、前記紐付け部は、前記第1動画について、前記機械学習部が算出した前記第1動作である推定値と前記第2動作である推定値との組み合わせである第1組み合わせを、前記第1動画に写された前記物体の動作を示す動作情報として、前記第1動画とを紐付け、前記決定部は、前記一方の動画である前記第2動画について、前記機械学習部が算出した前記第2動作である推定値を前記第1動作である推定値とし、前記機械学習部が算出した前記第1動作である推定値を前記第2動作である推定値とした第2組み合わせを、前記他方の動画である前記第1動画に写された前記物体の動作を示す動作情報に決定し、前記紐付け部は、前記第1動画と前記第2組み合わせとを紐付ける。
第3態様は、一方の動画が第2動画であり、他方の動画が第1動画であり、動作情報が推定値(例えば、尤度、確率)の場合である。
機械学習部は、第1動画について、第1動画に写された物体の動作が第1動作である推定値と第2動作である推定値とを算出する。第1動画に写された物体の動作は、第1動作なので、第1動作である推定値(例えば、90%)は、第2動作である推定値(例えば、10%)より高くなる。紐付け部は、第1動画と、これらの推定値の組み合わせ(第1組み合わせ)と、を紐付ける。
機械学習部は、第2動画について、第2動画に写された物体の動作が第2動作である推定値と第1動作である推定値とを算出する。第2動画(逆再生動画)に写された物体の動作は、第2動作と見なされる動作なので、第2動作である推定値(例えば、80%)は、第1動作である推定値(例えば、20%)より高くなる。
決定部は、第2動作である推定値(例えば、80%)を第1動作である推定値とし、第1動作である推定値(例えば、20%)を第2動作である推定値とした第2組み合わせを、第1動作を示す動作情報と見なし、これを第1動画に写された物体の動作情報と決定する。紐付け部は、第1動画と第2組み合わせとを紐付ける。
以上より、第3態様によれば、同じ第1動画に関して、第1動画と動作情報(第1動作である推定値90%、第2動作である推定値10%)とのペアと、第1動画と動作情報(第1動作である推定値80%、第2動作である推定値20%)とのペアと、を生成することができる。これにより、例えば、データセットに含まれるペアの数を2倍にすることができる。
本発明の第2局面に係る情報処理方法は、第1動作および前記第1動作と逆の動作である第2動作のうち、前記第1動作が写された第1動画を、前記第1動画を逆再生した第2動画に変換する変換ステップと、前記第1動画および前記第2動画のうち、一方の動画に写された前記物体の動作を示す動作情報を基にして、他方の動画に写された前記物体の動作を示す動作情報を決定する決定ステップと、前記他方の動画と前記決定ステップで決定された動作情報とを紐付ける紐付けステップと、を備える。
本発明の第2局面に係る情報処理方法は、本発明の第1局面に係る情報処理装置を方法の観点から規定しており、本発明の第1局面に係る情報処理装置と同様の作用効果を有する。
本発明の第3局面に係る情報処理プログラムは、第1動作および前記第1動作と逆の動作である第2動作のうち、前記第1動作が写された第1動画を、前記第1動画を逆再生した第2動画に変換する変換ステップと、前記第1動画および前記第2動画のうち、一方の動画に写された前記物体の動作を示す動作情報を基にして、他方の動画に写された前記物体の動作を示す動作情報を決定する決定ステップと、前記他方の動画と前記決定ステップで決定された動作情報とを紐付ける紐付けステップと、をコンピューターに実行させる。
本発明の第3局面に係る情報処理プログラムは、本発明の第1局面に係る情報処理装置をプログラムの観点から規定しており、本発明の第1局面に係る情報処理装置と同様の作用効果を有する。
本発明によれば、逆再生動画を機械学習に利用した場合に、機械学習の精度を向上させることができる。
実施形態に係る情報処理装置の機能ブロック図である。 第1動作のデータセットの一例を説明する説明図である。 図1に示す情報処理装置のハードウェア構成を示すブロック図である。 実施形態が、第1動作のデータセットを基にして、第2動作のデータセットを生成する処理を説明するフローチャートである。 実施形態において、第1動作のデータセットと第2動作のデータセットとの関係を説明する説明図である。 第1変形例が、第1動画のセットを基にして、第2動作のデータセットを生成する処理を説明するフローチャートの前半である。 第1変形例が、第1動画のセットを基にして、第2動作のデータセットを生成する処理を説明するフローチャートの後半である。 第1変形例において、第1動画のセットと、第1動作のデータセットと、第2動作のデータセットとの関係を説明する説明図である。 第2変形例が、第2動画のセットを基にして、第1動作のデータセットを生成する処理を説明するフローチャートである。 第2変形例において、第1動画のセットと第1動作のデータセットとの関係を説明する説明図である。 第2変形例において、第1動画のセットと、第2動画のセットと、第2動作のデータセットと、第1動作のデータセットとの関係を説明する説明図である。
以下、図面に基づいて本発明の実施形態を詳細に説明する。各図において、同一符号を付した構成は、同一の構成であることを示し、その構成について、既に説明している内容については、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し(例えば、第1動画V1)、個別の構成を指す場合には添え字を付した参照符号で示す(例えば、第1動画V1−1)。
図1は、実施形態に係る情報処理装置1の機能ブロック図である。情報処理装置1は、機能ブロックとして、本体部2と、入力部3と、出力部4と、を備える。
本体部2は、機械学習を実行できる性能を有するコンピューターであり、機能ブロックとして、制御処理部21と、機械学習部22と、記憶部23と、取出部24と、変換部25と、決定部26と、紐付け部27と、を備える。
制御処理部21は、本体部2の各部(機械学習部22、記憶部23、取出部24、変換部25、決定部26、紐付け部27)を当該各部の機能に応じてそれぞれ制御するための装置である。
機械学習には、学習フェーズ(学習によるモデル作成)と、予測・認識フェーズ(モデルをデータに適用して結果を得る)と、がある。機械学習部22は、物体の予め定められた動作について、これらのフェーズを実行する。物体は、動くことができればよく、人間、動物、人為的に作られた物(例えば、自動車)のいずれでもよい。
物体の予め定められた動作は、第1動作および第2動作である。第1動作は、第2動作と逆の動作である。言い換えれば、第2動作は、第1動作と逆の動作である。例えば、人間が椅子に座る動作が第1動作のとき、人間が椅子から立つ動作が第2動作となる。この逆でもよい。すなわち、人間が椅子から立つ動作が第1動作のとき、人間が椅子に座る動作が第2動作となる。
記憶部23は、情報処理装置1が実行する処理および制御に必要な各種の動画、データ、情報等を記憶する。記憶部23に記憶される各種のデータの1つとして、第1動作のデータセットがある。第1動作のデータセットは、第1動作を学習するためのデータセット(学習データ)である。
図2は、第1動作のデータセットDS−1の一例を説明する説明図である。第1動作のデータセットDS−1は、第1動画V1と第1ラベルとのペアをn個備える。nは、第1動作の機械学習に必要とされる数である。第1動画V1は、第1動作をする物体が写された動画である。n個の第1動画V1(V1−1〜V1−n)は、同じ動画でなく、それぞれ別々に撮像された動画である。
第1ラベルは、第1動画V1に写された物体の動作が第1動作であることを示す動作情報である(例えば、「0」)。n個の第1動画V1は、それぞれ、第1動作をする物体が写された動画なので、ラベルは、それぞれ、第1ラベルである。n個の第1動画V1のそれぞれは、第1ラベルと紐付けられて、n個のペアが構成されている。
図1を参照して、取出部24は、第1動作のデータセットDS−1に含まれるペアをコピーし、このペアを構成する第1動画V1を変換部25に送り、第1ラベルを決定部26に送る処理をする。取出部24は、この処理をn個のペアのそれぞれについて実行する。
変換部25は、取出部24から送られてきた第1動画V1を構成するフレームの順番を逆にすることにより、第1動画V1を第2動画V2(逆再生動画)に変換する。フレームの順番を逆にするとは、例えば、フレームA、フレームB、フレームC、フレームDの順にフレームが並ぶ動画(第1動画V1)の場合、フレームD、フレームC、フレームB、フレームAの順にフレームが並ぶ動画(第2動画V2)にすることである。第2動画V2は、第1動画V1を逆再生した動画なので、第2動画V2に写された物体の動作は、第2動作でなく、第2動作と見なす動作である。
決定部26は、第1動画V1および第2動画V2のうち、一方の動画に写された物体の動作を示す動作情報を基にして、他方の動画に写された物体の動作を示す動作情報を決定する。詳しく説明すると、実施形態では、一方の動画が第1動画V1であり、他方の動画が第2動画V2である。記憶部23は、第1ラベルと第2ラベルとを紐付けて予め記憶している。第2ラベルは、第2動画V2に写された物体の動作が第2動作であることを示す動作情報である(例えば、「1」)。決定部26は、取出部24から送られてきたラベルが第1ラベルなので、第1ラベルと紐付けて記憶されている第2ラベルを、第2動画V2に写された物体の動作を示す動作情報に決定する。
紐付け部27は、第2動画V2と第2ラベル(決定部26が決定した動作情報)とを紐付ける。これにより、第2動画V2と第2ラベルのペアが生成される。
入力部3は、外部からコマンド(命令)やデータ等を情報処理装置1に入力する装置である。出力部4は、機械学習部22が実行した認識結果等を出力する装置である。
図3は、図1に示す情報処理装置1のハードウェア構成を示すブロック図である。情報処理装置1は、CPU(Central Processing Unit)1a、GPU(Graphics Processing Unit)1b、RAM(Random Access Memory)1c、ROM(Read Only Memory)1d、HDD(Hard Disk Drive)1e、液晶ディスプレイ1f、キーボード等1g、および、これらを接続するバス1hを備える。
図1および図3を参照して、液晶ディスプレイ1fは、出力部4を実現するハードウェアである。液晶ディスプレイ1fの替わりに、有機ELディスプレイ(Organic Light Emitting Diode display)、プラズマディスプレイ等でもよい。キーボード等1gは、入力部3を実現するハードウェアである。キーボードの替わりに、タッチパネルでもよい。
HDD1eは、記憶部23を実現するハードウェアである。また、HDD1eには、制御処理部21、機械学習部22、取出部24、変換部25、決定部26、紐付け部27について、これらの機能ブロックをそれぞれ実現するためのプログラムが格納されている。これらのプログラムは、機能ブロックの定義を用いて表現される。変換部25および変換プログラムを例にして説明する。変換部25は、第1動作およびこの動作と逆の動作である第2動作のうち、第1動作が写された第1動画V1を、第1動画V1を逆再生した第2動画V2に変換する。変換プログラムは、第1動作およびこの動作と逆の動作である第2動作のうち、第1動作が写された第1動画V1を、第1動画V1を逆再生した第2動画V2に変換するプログラムである。
これらのプログラムは、HDD1eに予め記憶されているが、これに限定されない。例えば、これらのプログラムを記録している記録媒体(例えば、磁気ディスク、光学ディスクのような外部記録媒体)が用意されており、この記録媒体に記憶されているプログラムがHDD1eに記憶されてもよい。また、これらのプログラムは、情報処理装置1とネットワーク接続されたサーバに格納されており、ネットワークを介して、これらのプログラムがHDD1eに送られ、HDD1eに記憶されてもよい。これらのプログラムは、HDD1eの替わりにROM1dに記憶してもよい。情報処理装置1は、HDD1eの替わりに、フラッシュメモリを備え、これらのプログラムはフラッシュメモリに記憶してもよい。
CPU1aは、これらのプログラムを、HDD1eから読み出してRAM1cに展開させ、展開されたプログラムを実行することによって、制御処理部21、機械学習部22、取出部24、変換部25、決定部26、および、紐付け部27が実現される。但し、これらの機能について、各機能の一部又は全部は、CPU1aによる処理に替えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に替えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。
CPU1aによって実行されるこれらのプログラム(変換プログラム等)のフローチャートが、後で説明する図4、図6、図7および図9のフローチャートである。
GPU1bは、例えば、CPU1aの制御の下で、機械学習部22が機械学習をする際に必要な各種処理(例えば、画像処理)を実行する。
実施形態では、第1動作のデータセットDS−1を基にして、第2動作のデータセットDS−2を生成する。図4は、これを説明するフローチャートである。図5は、実施形態において、第1動作のデータセットDS−1と第2動作のデータセットDS−2との関係を説明する説明図である。
図5について説明する。図5に示す第1動作のデータセットDS−1は、図2に示す第1動作のデータセットDS−1と同じである。第2動作のデータセットDS−2は、第2動作を学習するためのデータセット(学習セット)である。第2動作のデータセットDS−2は、第2動画V2と第2ラベルとのペアをn個備える。これらのペアの数nは、第1動作のデータセットDS−1に備えられるペアの数nと同じである。
n個の第2動画V2(V2−1〜V2−n)は、それぞれ、n個の第1動画V1(V1−1〜V1−n)を逆再生した動画である。すなわち、第2動画V2−1は、第1動画V1−1を逆再生した動画であり、第2動画V2−2は、第1動画V1−2を逆再生した動画であり、第2動画V2−3は、第1動画V1−3を逆再生した動画であり、・・・、第2動画V2−nは、第1動画V1−nを逆再生した動画である。第2ラベルは、上述したように、第2動画V2に写された物体の動作が第2動作であることを示す動作情報である(例えば、「1」)。n個の第2動画V2のそれぞれは、第2ラベルと紐付けられて、n個のペアが構成されている。
実施形態が、第1動作のデータセットDS−1を基にして、第2動作のデータセットDS−2を生成する処理を説明する。図1、図4および図5を参照して、取出部24は、第1動作のデータセットDS−1に含まれる1番目のペア[第1動画V1−1,第1ラベル]をコピーし、このペアを構成する第1動画V1−1、第1ラベルをそれぞれ、変換部25、決定部26に送る(ステップS1)。
変換部25は、取出部24から送られてきた第1動画V1−1を第2動画V2−1に変換する(ステップS2)。このように、変換部25は、一方の動画である第1動画V1と第1ラベルのペアに対して、ペアを構成する第1動画V1を第2動画V2に変換する。
決定部26は、取出部24から送られてきたラベルが第1ラベルなので、第1ラベルと紐付けて記憶されている第2ラベルを、第2動画V2−1に写された物体の動作を示す動作情報に決定する(ステップS3)。
紐付け部27は、第2動画V2−1と第2ラベルとを紐付ける(ステップS4)。これにより、1つのペア[第2動画V2−1,第2ラベル]が生成される。
取出部24は、第1動作のデータセットDS−1に含まれる全てのペアについて、ステップS1〜S4の処理が終了したか否かを判断する(ステップS5)。取出部24は、第1動作のデータセットDS−1に含まれる全てのペアについて、ステップS1〜S4の処理が終了していないと判断したとき(ステップS5でNo)、ステップS1に戻り、ステップS1の処理をする。
取出部24は、第1動作のデータセットDS−1に含まれる全てのペアについて、ステップS1〜S4の処理が終了したと判断したとき(ステップS5でYes)、図5に示すように、第2動作のデータセットDS−2が完成される。
実施形態の主な効果を説明する。第2動作は、第1動作の逆の動作である。このため、第1動作をする物体が写された第1動画V1の逆再生動画(第2動画V2)は、第2動作と見なすことができる動作をする物体が写された動画である。例えば、人間が椅子に座る動作が写された第1動画V1の逆再生動画(第2動画V2)は、人間が椅子に座る動作を未来から過去へ再生する動画であるが、人間が椅子から立つ動作と見なすことができる動作が写された動画である。逆に、人間が椅子から立つ動作が写された第1動画V1の逆再生動画(第2動画V2)は、人間が椅子から立つ動作を未来から過去へ再生する動画であるが、人間が椅子に座る動作と見なすことができる動作が写された動画である。
第1動画V1および第2動画V2において、動画に写されてる物体の動作を示す動作情報であるラベル(言い換えれば、教師データ)を同じにすれば、機械学習の精度が悪くなる。そこで、決定部26は、第1動画V1に写された物体の動作を示す動作情報(第1ラベル)を基にして、第2動画V2に写された物体の動作を示す動作情報(第2ラベル)を決定する。従って、実施形態によれば、逆再生動画を機械学習に利用した場合に、機械学習の精度を向上させることができる。
実施形態には、第1変形例および第2変形例がある。これらの変形例において、動作情報はラベルでなく、推定値(推定値の組み合わせ)であり、動画に写された物体の動作が第1動作である推定値と第2動作である推定値とが求められる。例えば、第1動画V1に写された物体の動作が第1動作である推定値が90%であり、第2動作である推定値が10%である。推定値は、例えば、尤度、確率である。
第1変形例について、実施形態と相違する点を主に説明する。第1変形例は、第1動画V1のセットを基にして、第2動作のデータセットDS−4を生成する。図6は、これを説明するフローチャートの前半である。図7は、これを説明するフローチャートの後半である。図8は、第1変形例において、第1動画V1のセットと、第1動作のデータセットDS−3と、第2動作のデータセットDS−4との関係を説明する説明図である。
図1、図6および図8を参照して、記憶部23は、第1動画V1のセットを予め記憶している。第1動画V1のセットは、実施形態で説明したn個の第1動画V1を備える。
取出部24は、第1動画V1のセットに含まれる1番目の第1動画V1(第1動画V1−1)をコピーし、これを機械学習部22に送る(ステップS11)。
機械学習部22は、取出部24から送られてきた第1動画V1−1を学習(言い換えれば、第1動画V1−1の特徴抽出)して、第1動画V1−1に写された物体の動作が第1動作である推定値(例えば、90%)と第2動作である推定値(例えば、10%)とをそれぞれ算出する(ステップS12)。これらの推定値の組み合わせが、第1動画V1−1に写された物体の動作を示す動作情報となる。
紐付け部27は、第1動画V1−1と、機械学習部22が算出した第1動作の推定値および第2動作の推定値の組み合わせと、を紐づける(ステップS13)。これにより、ペア[第1動画V1−1,(第1動作の推定値90%,第2動作の推定値10%)]が生成される
取出部24は、第1動画V1のセットに含まれる全ての第1動画V1について、ステップS11〜S13の処理が終了したか否かを判断する(ステップS14)。取出部24は、第1動画V1のセットに含まれる全ての第1動画V1について、ステップS11〜S13の処理が終了していないと判断したとき(ステップS14でNo)、ステップS11に戻り、ステップS11の処理をする。
取出部24は、第1動画V1のセットに含まれる全ての第1動画V1について、ステップS11〜S13の処理が終了したと判断したとき(ステップS14でYes)、図8に示すように、第1動作のデータセットDS−3が完成される。
図1、図7および図8を参照して、取出部24は、第1動画V1のセットに含まれる1番目の第1動画V1(第1動画V1−1)をコピーし、変換部25に送る(ステップS15)。
変換部25は、取出部24から送られてきた第1動画V1−1を第2動画V2−1に変換する(ステップS16)。
取出部24は、第1動作のデータセットDS−3に含まれる1番目のペアに含まれる推定値の組み合わせ(第1動作の推定値90%,第2動作の推定値10%)をコピーし、決定部26に送る(ステップS17)。
決定部26は、第2動画V2−1とペアを組む推定値の組み合わせを決定する(ステップS18)。詳しく説明すると、決定部26は、取出部24から送られてきた推定値の組み合わせ(第1動作の推定値90%,第2動作の推定値10%)について、第1動作の推定値90%を第2動作の推定値90%とし、第2動作の推定値10%を第1動作の推定値10%とした組み合わせを生成し、この組み合わせを第2動画V2−1に写された物体の動作を示す動作情報に決定する。このように、決定部26は、第1動画V1について、機械学習部22が算出した第1動作である推定値を、第2動作である推定値とし、第1動画V1について、機械学習部22が算出した第2動作である推定値を、第1動作である推定値とした組み合わせを、第2動画V2に写された物体の動作を示す動作情報に決定する。
紐付け部27は、第2動画V2−1と、ステップS18で決定された推定値の組み合わせ(第2動作の推定値90%、第1動作の推定値10%)と、を紐付ける(ステップS19)。これにより、1つのペア[第2動画V2−1,(第2動作の推定値90%,第1動作の推定値10%)]が生成される。
取出部24は、第1動画V1のセットに含まれる全ての第1動画V1について、ステップS15〜S19の処理が終了したか否かを判断する(ステップS20)。取出部24は、第1動画V1のセットに含まれる全ての第1動画V1について、ステップS15〜S19の処理が終了していないと判断したとき(ステップS20でNo)、ステップS15に戻り、ステップS15の処理をする。
取出部24は、第1動画V1のセットに含まれる全ての第1動画V1について、ステップS15〜S19の処理が終了したと判断したとき(ステップS20でYes)、図8に示すように、第2動作のデータセットDS−4が完成される。
第1変形例の主な効果を説明する。機械学習部22は、第1動画V1を学習して、第1動画V1に写された物体の動作が第1動作である推定値と第2動作である推定値とを算出する(ステップS12)。第1動画V1に写された物体の動作は、第1動作なので、第1動作である推定値(例えば、90%)は、第2動作である推定値(例えば、10%)より高くなる。これらの推定値の組み合わせが、第1動画V1とペアを組む推定値の組み合わせとなる。
決定部26は、第1動作である推定値(例えば、90%)を第2動作である推定値とし、第2動作である推定値(例えば、10%)を第1動作である推定値とし、これらの推定の組み合わせを、第2動作を示す動作情報と見なし、これを第2動画V2に写された物体の動作情報と決定する(ステップS18)。
第1変形例によれば、機械学習部22が第2動画V2を学習することなく、第2動画V2と、第2動画V2に写された物体の動作情報(推定値の組み合わせ)と、を紐付けたペアを生成することができる。これにより、機械学習部22が第2動画V2を学習することなく、第2動作のデータセットDS−4を生成することができる。
第2変形例について、実施形態および第1変形例と相違する点を主に説明する。第2変形例は、第1動画V1のセットを基にして、図10に示す第1動作のデータセットDS−3を生成し、かつ、第2動画V2のセットを基にして、図11に示す第1動作のデータセットDS−6を生成する。図9は、第2変形例において、第2動画V2のセットを基にして、第1動作のデータセットDS−6を生成する処理を説明するフローチャートである。図10は、第2変形例において、第1動画V1のセットと第1動作のデータセットDS−3との関係を説明する説明図である。図11は、第2変形例において、第1動画V1のセットと、第2動画V2のセットと、第2動作のデータセットDS−5と、第1動作のデータセットDS−6との関係を説明する説明図である。
図10を参照して、第2変形例に係る情報処理装置1は、第1動画V1のセットを基にして、第1動作のデータセットDS−3を生成する。第1動作の推定値と第2動作の推定値との組み合わせが第1組み合わせである。第1動画V1と第1組み合わせとが紐付けられている。図10は、第1変形例が、第1動画V1のセットを基にして、第1動作のデータセットDS−3を生成する処理と同じである(図8に示す第1動画のセットから第1動作のデータセットDS−3の生成、図6のステップS11〜S14)。よって、説明を省略する。
図1、図9および図11を参照して、取出部24は、第1動画V1のセットに含まれる1番目の第1動画V1(第1動画V1−1)をコピーし、これを変換部25に送る(ステップS31)。
変換部25は、取出部24から送られてきた第1動画V1−1を第2動画V2−1に変換する(ステップS32)。
取出部24は、第1動画V1のセットに含まれる全ての第1動画V1について、ステップS31およびステップS32の処理が終了したか否かを判断する(ステップS33)。取出部24は、第1動画V1のセットに含まれる全ての第1動画V1について、ステップS31およびステップS32の処理が終了していないと判断したとき(ステップS33でNo)、ステップS31に戻り、ステップS31の処理をする。
取出部24は、第1動画V1のセットに含まれる全ての第1動画V1について、ステップS31およびステップS32の処理が終了したと判断したとき(ステップS33でYes)、図11に示すように、第2動画V2のセットが完成される。
第2動画V2のセットの完成後、取出部24は、第2動画V2のセットに含まれる1番目の第2動画V2(第2動画V2−1)をコピーし、これを機械学習部22に送る(ステップS34)。
機械学習部22は、取出部24から送られてきた第2動画V2−1を学習(言い換えれば、第2動画V2−1の特徴抽出)して、第2動画V2−1に写された物体の動作が第2動作である推定値(例えば、80%)と第1動作である推定値(例えば、20%)とをそれぞれ算出する(ステップS35)。これらの推定値の組み合わせが、第2動画V2−1に写された物体の動作を示す動作情報となる。
紐付け部27は、第2動画V2−1と、機械学習部22が算出した第2動作の推定値および第1動作の推定値の組み合わせと、を紐づける(ステップS36)。これにより、ペア[第2動画V2−1,(第2動作の推定値80%,第1動作の推定値20%)]が生成される。
取出部24は、第2動画V2のセットに含まれる全ての第2動画V2について、ステップS34〜S36の処理が終了したか否かを判断する(ステップS37)。取出部24は、第2動画V2のセットに含まれる全ての第2動画V2について、ステップS34〜S36の処理が終了していないと判断したとき(ステップS37でNo)、ステップS34に戻り、ステップS34の処理をする。
取出部24は、第2動画V2のセットに含まれる全ての第2動画V2について、ステップS34〜S36の処理が終了したと判断したとき(ステップS37でYes)、図11に示すように、第2動作のデータセットDS−5が完成される。
第2動作のデータセットDS−5の完成後、取出部24は、第2動作のデータセットDS−5に含まれる1番目のペアにおいて、推定値の組み合わせ(第2動作の推定値80%,第1動作の推定値20%)をコピーし、決定部26に送る(ステップS38)。
決定部26は、第1動画V1−1とペアを組む推定値の組み合わせ(第2組み合わせ)を決定する(ステップS39)。詳しく説明すると、決定部26は、取出部24から送られてきた推定値の組み合わせ(第2動作の推定値80%,第1動作の推定値20%)について、第2動作の推定値80%を第1動作の推定値80%とし、第1動作の推定値20%を第2動作の推定値20%とした第2組み合わせを生成し、第2組み合わせを第1動画V1−1に写された物体の動作を示す動作情報に決定する。このように、決定部26は、第2動画V2について、機械学習部22が算出した第2動作である推定値を、第1動作である推定値とし、第2動画V2について、機械学習部22が算出した第1動作である推定値を、第2動作である推定値とした第2組み合わせを、第1動画V1に写された物体の動作を示す動作情報に決定する。
紐付け部27は、第1動画V1のセットに含まれる第1動画V1−1と、ステップS39で決定された推定値の組み合わせである第2組み合わせ(第1動作の推定値80%、第2動作の推定値20%)と、を紐付ける(ステップS40)。これにより、1つのペア[第1動画V1−1,(第1動作の推定値80%,第2動作の推定値20%)]が生成される。
取出部24は、第1動画V1のセットに含まれる全ての第1動画V1について、ステップS38〜S40の処理が終了したか否かを判断する(ステップS41)。取出部24は、第1動画V1のセットに含まれる全ての第1動画V1について、ステップS38〜S40の処理が終了していないと判断したとき(ステップS41でNo)、ステップS38に戻り、ステップS38の処理をする。
取出部24は、第1動画V1のセットに含まれる全ての第1動画V1について、ステップS38〜S40の処理が終了したと判断したとき(ステップS41でYes)、図11に示すように、第1動作のデータセットDS−6が完成される。
第2変形例の主な効果を説明する。図6に示すフローチャートは、第2変形例にも適用される。第1変形例と同様に、機械学習部22は、第1動画V1について、第1動画V1に写された物体の動作が第1動作である推定値と第2動作である推定値とを算出する(図6のステップS12)。図10を参照して、第1動画V1に写された物体の動作は、第1動作なので、第1動作である推定値(例えば、90%)は、第2動作である推定値(例えば、10%)より高くなる。紐付け部27は、第1動画V1と、これらの推定値の組み合わせ(第1組み合わせ)と、を紐付ける。
機械学習部22は、第2動画V2について、第2動画V2に写された物体の動作が第2動作である推定値と第1動作である推定値とを算出する(ステップS35)。図11を参照して、第2動画V2(逆再生動画)に写された物体の動作は、第2動作と見なされる動作なので、第2動作である推定値(例えば、80%)は、第1動作である推定値(例えば、20%)より高くなる。
決定部26は、第2動作である推定値(例えば、80%)を第1動作である推定値とし、第1動作である推定値(例えば、20%)を第2動作である推定値とした第2組み合わせを、第1動作を示す動作情報と見なし、これを第1動画V1に写された物体の動作情報と決定する(ステップS39)。紐付け部27は、第1動画V1と第2組み合わせとを紐付ける(ステップS40)。
以上より、第2変形例によれば、同じ第1動画V1に関して、第1動画V1と動作情報(第1動作である推定値90%、第2動作である推定値10%)とのペアと、第1動画V1と動作情報(第1動作である推定値80%、第2動作である推定値20%)とのペアと、を生成することができる(図10に示す第1動作のデータセットDS−3、図11に示す第1動作のデータセットDS−6)。従って、第2変形例によれば、第1動作のデータセットとして、第1動作のデータセットDS−3に加えて、第1動作のデータセットDS−6を生成することができる。これらを一つのデータセットにすることにより、第1動作のデータセットDS−3を生成する場合と比べて、第1動作のデータセットに含まれるペアの数を2倍にすることができる。
実施形態、第1変形例および第2変形例では、データセットの生成を例にして説明したが、本発明は、これに限定されず、逆再生動画を利用する機械学習、逆再生動画を利用する深層学習に適用することが可能である。
1 情報処理装置
V1,V1−1〜V1−n 第1動画
V2,V2−1〜V2−n 第2動画

Claims (6)

  1. 第1動作および前記第1動作と逆の動作である第2動作のうち、前記第1動作が写された第1動画を、前記第1動画を逆再生した第2動画に変換する変換部と、
    前記第1動画および前記第2動画のうち、一方の動画に写された前記物体の動作を示す動作情報を基にして、他方の動画に写された前記物体の動作を示す動作情報を決定する決定部と、
    前記他方の動画と前記決定部が決定した動作情報とを紐付ける紐付け部と、
    前記一方の動画である前記第1動画について、前記第1動画に写された前記物体の動作が前記第1動作である推定値と前記第2動作である推定値とを算出する機械学習部と、を備え、
    前記決定部は、前記機械学習部が算出した前記第1動作である推定値を前記第2動作である推定値とし、前記機械学習部が算出した前記第2動作である推定値を前記第1動作である推定値とした組み合わせを、前記他方の動画である前記第2動画に写された前記物体の動作を示す動作情報に決定し
    前記紐付け部は、前記第2動画と前記組み合わせとを紐付ける、情報処理装置。
  2. 第1動作および前記第1動作と逆の動作である第2動作のうち、前記第1動作が写された第1動画を、前記第1動画を逆再生した第2動画に変換する変換部と
    前記第1動画および前記第2動画のうち、一方の動画に写された前記物体の動作を示す動作情報を基にして、他方の動画に写された前記物体の動作を示す動作情報を決定する決定部と
    前記他方の動画と前記決定部が決定した動作情報とを紐付ける紐付け部と
    前記第1動画について、前記第1動画に写された前記物体の動作が前記第1動作である推定値と前記第2動作である推定値とを算出し、かつ、前記第2動画について、前記第2動画に写された前記物体の動作が前記第2動作である推定値と前記第1動作である推定値とを算出する機械学習部と、を備え、
    前記紐付け部は、前記第1動画について、前記機械学習部が算出した前記第1動作である推定値と前記第2動作である推定値との組み合わせである第1組み合わせを、前記第1動画に写された前記物体の動作を示す動作情報として、前記第1動画とを紐付け、
    前記決定部は、前記一方の動画である前記第2動画について、前記機械学習部が算出した前記第2動作である推定値を前記第1動作である推定値とし、前記機械学習部が算出した前記第1動作である推定値を前記第2動作である推定値とした第2組み合わせを、前記他方の動画である前記第1動画に写された前記物体の動作を示す動作情報に決定し、
    前記紐付け部は、前記第1動画と前記第2組み合わせとを紐付ける、報処理装置。
  3. コンピューターによって実行される情報処理方法であって
    第1動作および前記第1動作と逆の動作である第2動作のうち、前記第1動作が写された第1動画を、前記第1動画を逆再生した第2動画に変換する変換ステップと、
    前記第1動画および前記第2動画のうち、一方の動画に写された前記物体の動作を示す動作情報を基にして、他方の動画に写された前記物体の動作を示す動作情報を決定する決定ステップと、
    前記他方の動画と前記決定ステップで決定された動作情報とを紐付ける紐付けステップと、
    前記一方の動画である前記第1動画について、前記第1動画に写された前記物体の動作が前記第1動作である推定値と前記第2動作である推定値とを機械学習部により算出する算出ステップと、を備え、
    前記決定するステップは、前記算出ステップで算出した前記第1動作である推定値を前記第2動作である推定値とし、前記算出ステップで算出した前記第2動作である推定値を前記第1動作である推定値とした組み合わせを、前記他方の動画である前記第2動画に写された前記物体の動作を示す動作情報に決定し
    前記紐付けステップは、前記第2動画と前記組み合わせとを紐付ける、情報処理方法。
  4. 第1動作および前記第1動作と逆の動作である第2動作のうち、前記第1動作が写された第1動画を、前記第1動画を逆再生した第2動画に変換する変換ステップと、
    前記第1動画および前記第2動画のうち、一方の動画に写された前記物体の動作を示す動作情報を基にして、他方の動画に写された前記物体の動作を示す動作情報を決定する決定ステップと、
    前記他方の動画と前記決定ステップで決定された動作情報とを紐付ける紐付けステップと、
    前記一方の動画である前記第1動画について、前記第1動画に写された前記物体の動作が前記第1動作である推定値と前記第2動作である推定値とを機械学習部により算出する算出ステップと、をコンピューターに実行させる情報処理プログラムであって
    前記決定するステップは、前記算出ステップで算出した前記第1動作である推定値を前記第2動作である推定値とし、前記算出ステップで算出した前記第2動作である推定値を前記第1動作である推定値とした組み合わせを、前記他方の動画である前記第2動画に写された前記物体の動作を示す動作情報に決定し
    前記紐付けステップは、前記第2動画と前記組み合わせとを紐付ける、情報処理プログラム。
  5. コンピューターによって実行される情報処理方法であって
    第1動作および前記第1動作と逆の動作である第2動作のうち、前記第1動作が写された第1動画を、前記第1動画を逆再生した第2動画に変換する変換ステップと
    前記第1動画および前記第2動画のうち、一方の動画に写された前記物体の動作を示す動作情報を基にして、他方の動画に写された前記物体の動作を示す動作情報を決定する決定ステップと
    前記他方の動画と前記決定ステップで決定された動作情報とを紐付ける紐付けステップと
    前記第1動画について、前記第1動画に写された前記物体の動作が前記第1動作である推定値と前記第2動作である推定値とを算出し、かつ、前記第2動画について、前記第2動画に写された前記物体の動作が前記第2動作である推定値と前記第1動作である推定値とを機械学習部により算出する算出ステップと、を備え
    前記紐付けステップは、前記第1動画について、前記算出ステップで算出した前記第1動作である推定値と前記第2動作である推定値との組み合わせである第1組み合わせを、前記第1動画に写された前記物体の動作を示す動作情報として、前記第1動画とを紐付け
    前記決定ステップは、前記一方の動画である前記第2動画について、前記算出ステップで算出した前記第2動作である推定値を前記第1動作である推定値とし、前記算出ステップで算出した前記第1動作である推定値を前記第2動作である推定値とした第2組み合わせを、前記他方の動画である前記第1動画に写された前記物体の動作を示す動作情報に決定し
    前記紐付けステップは、前記第1動画と前記第2組み合わせとを紐付ける、情報処理方法
  6. 第1動作および前記第1動作と逆の動作である第2動作のうち、前記第1動作が写された第1動画を、前記第1動画を逆再生した第2動画に変換する変換ステップと
    前記第1動画および前記第2動画のうち、一方の動画に写された前記物体の動作を示す動作情報を基にして、他方の動画に写された前記物体の動作を示す動作情報を決定する決定ステップと
    前記他方の動画と前記決定ステップで決定された動作情報とを紐付ける紐付けステップと
    前記第1動画について、前記第1動画に写された前記物体の動作が前記第1動作である推定値と前記第2動作である推定値とを算出し、かつ、前記第2動画について、前記第2動画に写された前記物体の動作が前記第2動作である推定値と前記第1動作である推定値とを機械学習部により算出する算出ステップと、をコンピューターに実行させる情報処理プログラムであって
    前記紐付けステップは、前記第1動画について、前記算出ステップで算出した前記第1動作である推定値と前記第2動作である推定値との組み合わせである第1組み合わせを、前記第1動画に写された前記物体の動作を示す動作情報として、前記第1動画とを紐付け
    前記決定ステップは、前記一方の動画である前記第2動画について、前記算出ステップで算出した前記第2動作である推定値を前記第1動作である推定値とし、前記算出ステップで算出した前記第1動作である推定値を前記第2動作である推定値とした第2組み合わせを、前記他方の動画である前記第1動画に写された前記物体の動作を示す動作情報に決定し
    前記紐付けステップは、前記第1動画と前記第2組み合わせとを紐付ける、情報処理プログラム
JP2017249607A 2017-12-26 2017-12-26 情報処理装置、情報処理方法、および、情報処理プログラム Active JP6977551B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017249607A JP6977551B2 (ja) 2017-12-26 2017-12-26 情報処理装置、情報処理方法、および、情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017249607A JP6977551B2 (ja) 2017-12-26 2017-12-26 情報処理装置、情報処理方法、および、情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2019114211A JP2019114211A (ja) 2019-07-11
JP6977551B2 true JP6977551B2 (ja) 2021-12-08

Family

ID=67222714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017249607A Active JP6977551B2 (ja) 2017-12-26 2017-12-26 情報処理装置、情報処理方法、および、情報処理プログラム

Country Status (1)

Country Link
JP (1) JP6977551B2 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3607440B2 (ja) * 1996-12-03 2005-01-05 日本電気株式会社 ジェスチャー認識方法
JP6443393B2 (ja) * 2016-06-01 2018-12-26 トヨタ自動車株式会社 行動認識装置,学習装置,並びに方法およびプログラム

Also Published As

Publication number Publication date
JP2019114211A (ja) 2019-07-11

Similar Documents

Publication Publication Date Title
US10825221B1 (en) Music driven human dancing video synthesis
Jiang et al. Self-supervised relative depth learning for urban scene understanding
JP7047087B2 (ja) ビデオコンテンツを特徴付けるための深層強化学習フレームワーク
KR102033050B1 (ko) 시간차 모델을 위한 비지도 학습 기법
JP6378292B2 (ja) 動画ファイル中の対象物を識別する方法
US10916046B2 (en) Joint estimation from images
Kim et al. Recurrent temporal aggregation framework for deep video inpainting
JP2019003299A (ja) 画像認識装置および画像認識方法
JPWO2018207351A1 (ja) 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム
JP2023543120A (ja) 時空間推論および位置特定のためのマルチホップトランスフォーマー
Mirzaei et al. Animgan: A spatiotemporally-conditioned generative adversarial network for character animation
JP6977551B2 (ja) 情報処理装置、情報処理方法、および、情報処理プログラム
CN116206367A (zh) 预测手势的方法、装置、电子设备及存储介质
JP7452698B2 (ja) 画像間の空間的関係をラベリングする強化学習モデル
JP6275759B2 (ja) 三次元コンテンツの生成方法、プログラム、及びクライアント装置
US20150160836A1 (en) Extracting demonstrations from in-situ video content
GB2566478B (en) Probability based 360 degree video stabilisation
KR102604672B1 (ko) 영상 촬영 가이드 제공 방법, 장치 및 컴퓨터 프로그램
TWI763043B (zh) 產生循環影片的方法
US20230028562A1 (en) Three-Dimensional Skeleton Mapping
KR102672722B1 (ko) 동영상 관계 탐지 시스템
Puri et al. Analysis of Deepfake Detection Techniques
Bridgeman Parametric human modelling for shape and texture representation from video
Pérez Millar An overview of state-of-the-art methods for 3D human pose estimation from monocular video
JP2024068400A (ja) 機械学習プログラム、機械学習方法および機械学習装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211025

R150 Certificate of patent or registration of utility model

Ref document number: 6977551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150