JP2020086793A - データ補正装置およびプログラム - Google Patents

データ補正装置およびプログラム Download PDF

Info

Publication number
JP2020086793A
JP2020086793A JP2018218639A JP2018218639A JP2020086793A JP 2020086793 A JP2020086793 A JP 2020086793A JP 2018218639 A JP2018218639 A JP 2018218639A JP 2018218639 A JP2018218639 A JP 2018218639A JP 2020086793 A JP2020086793 A JP 2020086793A
Authority
JP
Japan
Prior art keywords
data
position data
data set
correction
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018218639A
Other languages
English (en)
Other versions
JP6810121B2 (ja
Inventor
伸也 北岡
Shinya Kitaoka
伸也 北岡
優理 小田桐
Yuri Odagiri
優理 小田桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2018218639A priority Critical patent/JP6810121B2/ja
Publication of JP2020086793A publication Critical patent/JP2020086793A/ja
Application granted granted Critical
Publication of JP6810121B2 publication Critical patent/JP6810121B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】補正後MCデータをリアルタイム生成する。【解決手段】本発明の一態様によれば、データ補正装置は、取得部と、補正部とを含む。取得部は、第1の単位時間に関連付けられる第1の位置データセットを取得し、第1の位置データセットの取得後に第1の単位時間よりも後の第2の単位時間に関連付けられる第2の位置データセットを取得する。補正部は、第1の位置データセット、第1の単位時間に関連付けられる第1の補正後位置データセット、および第2の位置データセットのうち少なくとも1つを含む参照位置データセットに基づいて、第2の単位時間に関連付けられる第2の補正後位置データセットをリアルタイム生成する。【選択図】 図1

Description

本発明は、データの補正に関する。
近年、例えばHMD(Head Mounted Display)を装着した演者の身体の動きから生成したモーションキャプチャ(MC:Motion Capture)データを利用して、演者に追随して動くアバターのアニメーションを生成し、観客の端末へインターネットで生配信することが知られている。このMCデータは、例えば、演者の身体に取り付けられたマーカーを複数のカメラにより撮影することで得られた複数の画像からマーカーの3次元位置を検出することで生成されたり(光学式)、演者が装着するHMDなどに搭載されたジャイロセンサおよび/または加速度センサなどの慣性センサの計測値に基づいて、それぞれのセンサの位置姿勢を算出することで生成されたりする(慣性センサ式)。MCデータは、ノイズ(例えば、高周波ノイズ、ジッター、など)、遮蔽などによる欠測、および/または検出されたマーカーの位置とそのマーカーの識別ラベルとの対応付けの不一致(ラベリングミス)、などのエラーを伴い得る。
かかる生のMCデータの持つエラーを放置したままアバターのアニメーションを生成すると、アバターの姿勢や動きが、演者の実際の姿勢や動きから乖離したり、不自然なものとなったりするおそれがある。従来、かかるエラーは、人間により手作業で補正されてきた。しかしながら、手作業によるエラーの補正は、煩雑かつ高コストである。
非特許文献1には、「事前に四足歩行モーションキャプチャデータ(歩容、ジャンプや座る等)を処理しアクションラベルを追加し」、「入力として前フレームの姿勢、前後12フレームの軌道や動作ラベルを与え、出力として現在のフレーム推定された姿勢を算出」すること、「これら入出力のデータセットを使用してエンドツーエンドで訓練し、実行時は前フレームとユーザが入力する制御信号を使用してリアルタイムにキャラクタのアニメーションを生成」すること、そしてこれにより「四足歩行キャラクターをインタラクティブにコントロールし、滑かな動きを生成」できることが記載されている。
非特許文献2には、生の光学MCデータに含まれるエラーを補正する技法が開示されている。具体的には、非特許文献2では、入力姿勢(ボーンデータ)に基づいて算出された後に模擬的なエラーを付加されたマーカー位置データから、この入力姿勢に近い姿勢を生成するように学習されたニューラルネットワークが開示されている。
さらに、特許文献1には、センサ162からのセンサ情報に基づきスケルトン情報を取得し([0083])、腕がプレーヤの胴体に隠れる([0103])といった骨格認識不正が発生すると判断(予測、推測)される場合には([0108])、補正処理として基準モーションとのモーションブレンド([0109])あるいはモーション差し替え([0118])を行うことが記載されている。
特開2017−138915号公報
He Zhang, Sebastian Starke, Taku Komura, Jun Saito. 2018. "Mode−adaptive neural networks for quadruped motion control". ACM Transactions on Graphics (TOG). Volume 37, Issue 4, August 2018. Article No. 145. https://dl.acm.org/citation.cfm?id=3197517.3201366 Daniel Holden, "Robust solving of optical motion capture data by denoising", [online] ACM Transactions on Graphics (TOG). Volume 37, Issue 4, August 2018. Article No. 165. 平成30年9月30日検索,<URL:https://dl.acm.org/citation.cfm?id=3197517.3201302>
非特許文献1に記載された技法は、前フレームの(姿勢)データとユーザの制御信号と基づいて現フレームの(姿勢)データを生成するものであって、モーションキャプチャによって生成されるMCデータの補正に適用することはできない。
非特許文献2に記載の技法は、学習済みのニューラルネットワークにより、ノイズを伴うマーカー位置データからこのノイズが補正されたボーンデータを生成する。すなわち、この技法では、マーカー位置データそのものの補正結果を直接的に得ることはできない。
特許文献1に記載された技法によれば、骨格認識不正が発生すると判断(予測、推測)される場合に、補正処理されたスケルトン情報を得ることはできるが光学MCデータそのものの補正結果を得ることはできない。また、特許文献1における補正処理は、入力スケルトン情報とは無関係の、いわば既定のスケルトン情報である基準モーションによる差し替え、または入力スケルトン情報をこの基準モーションに近づけること、を意味している。この補正処理は、スケルトン情報に基づいて生成されるキャラクタ画像を不自然に見えにくくすることはできるかもしれないが、真のスケルトン情報と基準モーションとの差異が大きい場合には、この補正処理によって誤差はかえって大きくなりかねない。故に、特許文献1に記載された技法は、突発的な骨格認識不正などの特殊な状況で一定の効果はあるかもしれないが、MCデータが含み得るノイズ、欠測、ラベリングミスなどのエラーを継続的に補正するのには適さない。
本発明は、補正後MCデータをリアルタイム生成することを目的とする。
本発明の一態様によれば、データ補正装置は、取得部と、補正部とを含む。取得部は、第1の単位時間に関連付けられる第1の位置データセットを取得し、第1の位置データセットの取得後に第1の単位時間よりも後の第2の単位時間に関連付けられる第2の位置データセットを取得する。補正部は、第1の位置データセット、第1の単位時間に関連付けられる第1の補正後位置データセット、および第2の位置データセットのうち少なくとも1つを含む参照位置データセットに基づいて、第2の単位時間に関連付けられる第2の補正後位置データセットをリアルタイム生成する。
本発明によれば、補正後MCデータをリアルタイム生成することができる。
実施形態に係るデータ補正装置を例示するブロック図。 図1のデータ補正装置を適用可能なコンテンツ共有システムを例示するブロック図。 図2のクライアントによって生成されるMCデータの説明図。 図1のデータ補正部によって行われる補正の一例の説明図。 図1のデータ補正部によって行われる補正の一例の説明図。 図1のデータ補正部によって行われる補正の一例の説明図。 図1のデータ補正部によって行われる補正の一例の説明図。 図1のデータ補正部によって行われる補間の説明図。 図1のデータ補正部を例示するブロック図。 図1のデータ補正部の動作を例示するフローチャート。
以下、図面を参照しながら実施形態の説明を述べる。なお、以降、説明済みの要素と同一または類似の要素には同一または類似の符号を付し、重複する説明については基本的に省略する。例えば、複数の同一または類似の要素が存在する場合に、各要素を区別せずに説明するために共通の符号を用いることがあるし、各要素を区別して説明するために当該共通の符号に加えて枝番号を用いることもある。
(実施形態)
実施形態に係るデータ補正装置は、例えば動体の複数の部位(光学MCデータの場合には、動体の複数の部位に取り付けられたマーカー)の3次元位置データを有するMCデータを補正する。なお、このデータ補正装置は、MCデータに限らず複数の位置データを含む位置データセットを補正可能であるが、以降の説明では便宜的にMCデータを補正することを前提とする。また、このデータ補正装置は、2次元などの3次元以外の位置データを要素とする位置データセットにも適用可能である。
MCデータは、例えば、MCスタジオにおいて本格的に生成されてもよいし(第1の例)、例えばコンテンツ共有システムによって共有されることになるコンテンツ、例えば動画、またはVR(Virtual Reality)、AR(Augmented Reality)、MR(Mixed Reality)などの仮想的コンテンツの演者(配信者)の自宅などで簡易に生成されてもよい(第2の例)。
第1の例では、演者はマーカー付きの全身タイツなどを装着することで、その身体の複数の部位の動きをマーカーを介して補足できるようにする。そして、スタジオ内に設置された複数のカメラが、異なるアングルから演者を撮影する。クライアント(例えば、スタジオ内に設置されたコンピュータ、または複数の画像データを収集可能にネットワーク、例えばインターネットに接続された遠隔コンピュータ)が、複数の画像からマーカーの3次元位置を検出することにより、MCデータを生成する。
第2の例では、演者は、例えば慣性センサなどのセンサを内蔵したHMDを頭部に装着し、および/またはセンサを内蔵したコントローラ(操作スティックとも呼ぶ)を把持する。そして、クライアントは、これらのセンサの計測結果であるセンシングデータを収集し、これらのセンシングデータに基づいて、演者の身体の複数の部位、例えば頭部および/または手の動きを計算することで、MCデータを生成する。第2の例において、クライアントは、例えば、PC(Personal Computer)、スマートフォンであってもよいし、または複数のセンシングデータを収集可能にネットワーク、例えばインターネットに接続された遠隔コンピュータであってもよい。
MCデータに基づいてアバター画像を生成(レンダリング)することで、演者の挙動に併せて身体を動かすアバターが登場する動画または仮想的コンテンツを作成することが可能となる。この場合に、MCデータは、動画または仮想的コンテンツの1フレーム毎に生成され得る。かかる動画または仮想的コンテンツの共有を可能とするコンテンツ共有システムが図2に例示される。
図2のシステムは、クライアント200と、サーバ300と、観客端末400−1,400−2,・・・とを含む。
クライアント200は、例えば演者の居るMCスタジオ、家庭内などにあるコンピュータであってもよいし、演者から得られた画像データ、センシングデータなどをネットワーク、例えばインターネット経由で収集する遠隔コンピュータであってもよい。クライアント200は、演者から得られた画像データ、センシングデータなどに基づいて、生のMCデータを生成する。MCデータは、図3に例示されるように、演者の身体の複数の部位に取り付けられたマーカー(白丸)それぞれの3次元位置データを含み得る。クライアント200は、生のMCデータを補正してからサーバ300へ送信してもよいし、生のMCデータをそのままサーバ300へ送信してもよい。クライアント200が生のMCデータを補正する場合には、実施形態に係るデータ補正装置はクライアント200に含まれることになる。なお、クライアント200および配信者端末が異なる場合には、生のMCデータまたは補正済みMCデータは、配信者端末経由でサーバ300へ送信されてもよい。
サーバ300は、ネットワーク、例えばインターネットに接続されたコンピュータである。サーバ300は、クライアント200からネットワーク経由でMCデータを受信する。このMCデータは、生のMCデータであるかもしれないし、補正済みMCデータであるかもしれない。サーバ300は、受信した生のMCデータを補正し得る。この場合に、実施形態に係るデータ補正装置はサーバ300に含まれることになる。サーバ300は、クライアント200から受信した補正済みMCデータ、または自ら生成した補正済みMCデータを観客端末400(および配信者端末)へ配信する。
なお、サーバ300は、補正済みMCデータそのものではなく、当該データに基づいてアバター画像、またはこれを含む動画もしくは仮想的コンテンツを生成し、これを観客端末400(および配信者端末)へ配信してもよい。或いは、クライアント200または配信者端末が、補正済みMCデータに基づいて、アバター画像、またはこれを含む動画もしくは仮想的コンテンツを生成し、これをサーバ300へ送信してもよい。すなわち、アバター画像は、サーバ300によって生成されてもよいし、観客端末400(および配信者端末)によって生成されてもよい。ここでは、1つのサーバ300がMCデータの補正、補正済みMCデータに基づくアバター画像、および/またはこれを含む動画または仮想的コンテンツの生成、ならびにアバター画像、動画または仮想的コンテンツの配信を行うこととしているが、これらは別個のサーバによって分担されてもよい。
アバター画像をサーバ300によって生成すれば、観客端末400(および配信者端末)がアバター画像を生成するための十分なマシンパワーを有していなかったとしても、観客(および配信者)が同一の動画または仮想的コンテンツを楽しむことができるという利点がある。他方、アバター画像を観客端末400(およびクライアント200または配信者端末)によって生成すれば、画像データに比べてサイズの小さなMCデータが伝送されるので通信量を抑制することができる、サーバ300の処理負荷を軽減できる、さらに観客(および配信者)が個別に好みの外観(キャラクター、ファッション、など)のアバターを設定可能とすることで観客(および配信者)が挙動は同じだがアバターの外観は異なる動画または仮想的コンテンツを楽しむことができる、などの利点がある。
なお、配信者端末は補正済みMCデータまたはこれに基づくアバター画像の宛先から除外されてもよい。また、配信者端末およびクライアント200は互いに別の装置であってもよいし、両者が同一の装置であってもよい。ここで、配信者端末は、例えば、PC、モバイル端末(例えば、タブレット、ファブレット、スマートフォン、ラップトップ、ウェアラブルデバイス、ポータブルゲーム機、など)、据え置き型ゲーム機、などのネットワーク、例えばインターネット接続可能な電子デバイスであってよく、配信者がHMDにより動画または仮想的コンテンツを体験する場合には配信者端末はこのHMDの制御装置として機能し得る。
観客端末400は、図2のシステムによって共有されるコンテンツの受け手である観客にこのコンテンツを体験させる。観客端末400は、配信者端末と同様にネットワーク、例えばインターネット接続可能な電子デバイスであってよい。観客端末400は、観客がHMDにより動画または仮想的コンテンツを体験する場合には観客端末400はこのHMDの制御装置として機能し得る。観客端末400は、サーバ300からネットワーク経由で、補正済みMCデータ、またはこれに基づくアバター画像、またはこれを含む動画もしくは仮想的コンテンツを受信する。観客端末400は、受信したMCデータに基づいてアバター画像を含む動画または仮想的コンテンツを生成、出力したり、受信したアバター画像に基づいて当該アバター画像を含む動画または仮想的コンテンツを生成、出力したり、受信した動画または仮想的コンテンツを出力したりする。動画または仮想的コンテンツは、観客端末400に内蔵、外付けまたは無線接続された表示デバイス、例えば液晶ディスプレイ、有機EL(electroluminescence)ディスプレイ、HMDなどによって出力(表示)され得る。
なお、図2のシステムでは、C/S(Client / Server)型のネットワーク経由でMCデータなどが伝送されているが、かかるデータはP2P(Peer to Peer)型のネットワーク経由で、すなわちクライアント200に相当するMCデータ生成装置から観客端末400へ直接伝送されてもよい。P2P型のネットワークの例では、MCデータ生成装置が生のMCデータを観客端末400へ送信し、観客端末400が生のMCデータを補正することもあり得る。この場合に、実施形態に係るデータ補正装置は、観客端末400に含まれることになる。すなわち、実施形態に係るデータ補正装置は、クライアント200、サーバ300、または観客端末400のいずれに含まれることもあり得る。
次に、実施形態に係るデータ補正装置を説明する。このデータ補正装置は、データ補正を含む処理を行うプロセッサを含む。ここで、プロセッサは、典型的にはCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であるが、マイコン、FPGA(Field Programmable Gate Array)、DSP(Digital Signal Processor)、またはその他の汎用または専用のプロセッサなどであってもよい。
また、データ補正装置は、かかる処理を実現するためにプロセッサによって実行されるプログラムおよび当該プロセッサによって使用されるデータ、例えば、生のMCデータなどの補正前MCデータ、および補正後MCデータ、などを一時的に格納し得るメモリを含んでいる。メモリは、かかるプログラム/データが展開されるワークエリアを有するRAM(Random Access Memory)を含み得る。
なお、データ補正装置100は、全てのデータをオンメモリの状態で扱ってもよいし、一部のデータが補助記憶装置に退避されていてもよい。補助記憶装置は、例えば、データ補正装置100に内蔵または外付けされたHDD(Hard Disc Drive)、SSD(Solid State Drive)、フラッシュメモリなどであってもよいし、データ補正装置100からアクセス可能なデータベースサーバであってもよい。
図1は、実施形態に係るデータ補正装置100を例示する。データ補正装置100は、データ取得部101と、補正前データ記憶部102と、補正後データ記憶部103と、データ補正部110とを含む。
データ取得部101は、補正前MCデータを取得する。ここで、補正前MCデータは、クライアント200によって生成された生のMCデータであってもよいし、この生のMCデータに対して何らかの加工(補正を含み得る)を施して得られたMCデータであってもよい。データ取得部101は、単位時間毎、例えば取得したMCデータに基づくアバター画像を含む動画または仮想的コンテンツの1フレーム毎に、補正前MCデータを取得し得る。データ取得部101は、取得したMCデータを補正前データ記憶部102に書き込む。データ取得部101は、例えば前述のプロセッサに相当し得る。
このMCデータは、典型的には人間(演者)の複数の部位の3次元位置データに相当するが、人間に限らず動物などの他の生体、または機械などの他の動体の複数の部位の3次元位置データにも相当し得る。ここで、部位とは、MCデータの計測点を意味しており、例えばマーカーの装着点であり得る。
データ補正装置100がクライアント200に含まれる場合には、補正前MCデータは当該クライアント200において作成され、データ補正装置100に渡され得る。他方、データ補正装置100がサーバ300または観客端末400に含まれる場合には、補正前MCデータは当該サーバ300または観客端末400によってクライアント200からネットワーク経由で受信され、データ補正装置100に渡され得る。
補正前データ記憶部102は、補正前MCデータをその識別データ、例えばフレームID、に関連付けて保存する。補正前データ記憶部102は、データ取得部101により補正前MCデータを書き込まれ、データ補正部110により補正前MCデータを後述される参照MCデータの少なくとも一部として読み出され得る。補正前データ記憶部102は、例えば前述のメモリおよび/または補助記憶装置に相当し得る。
補正後データ記憶部103は、補正後MCデータをその識別データ、例えばフレームID、に関連付けて保存する。補正後データ記憶部103は、データ補正部110により補正後MCデータを書き込まれ、同じくデータ補正部110により補正後MCデータを参照MCデータの少なくとも一部として読み出され得る。補正後データ記憶部103は、例えば前述のメモリおよび/または補助記憶装置に相当し得る。
データ補正部110は、対象の識別データ、例えばフレームIDに関連付けられる補正後MCデータをリアルタイム生成するために、補正前データ記憶部102および/または補正後データ記憶部103から適切な補正前MCデータおよび/または補正後MCデータを参照MCデータとして読み出す。そして、データ補正部110は、この参照MCデータに基づいて、上記対象の識別データに関連付けられる補正後MCデータを生成する。データ補正部110は、この補正後MCデータを出力するとともに、補正後データ記憶部103に書き込む。データ補正部110は、例えば前述のプロセッサに相当し得る。
ここで、データ補正装置100がクライアント200またはサーバ300に含まれる場合には、補正後MCデータは当該クライアント200またはサーバ300それぞれに渡され、サーバ300(もしくは観客端末400)または観客端末400へそれぞれネットワーク経由で送信され得る。他方、データ補正装置100が観客端末400に含まれる場合には、補正後MCデータは当該観客端末400に渡され、例えばアバター画像の生成に利用され得る。
ここで、参照MCデータは、対象となる識別データに関連付けられる補正前MCデータ、対象となる識別データよりも過去の識別データに関連付けられる補正前MCデータ、および対象となる識別データよりも過去の識別データに関連付けられる補正後MCデータのうちの一部または全部を含み得る。
一例として図4に示されるように、データ補正部110は、対象となる識別データ(N)に関連付けられる補正前MCデータ(r)に基づいて、当該識別データ(N)に関連付けられる補正後MCデータ(C)を生成してもよい。この事例によれば、補正前MCデータ(r)の取得(或いは、補正前MCデータ(r)の補正前データ記憶部102への書き込み)から補正後MCデータ(C)が生成、出力されるまでに、データ補正部110における処理時間に依存する遅延が生じることになる。仮に、この遅延を1.5単位時間(フレーム)とすると、データ補正部110は、対象となる識別データ(N)よりも2単位時間以上過去の識別データに関連付けられる補正後MCデータ(CN−2,CN−3,・・・の一部または全部)を参照MCデータに含めることができる。なお、遅延が1単位時間以下であれば、図6に例示されるように、対象となる識別データ(N)よりも1単位時間過去の識別データに関連付けられる補正後MCデータ(CN−1)も参照MCデータに含められ得る。また、データ補正部110は、対象となる識別データ(N)よりも過去の識別データに関連付けられる補正前MCデータ(rN−1,rN−2,・・・の一部または全部)を参照MCデータに含めてもよい。
別の例として図5に示されるように、データ補正部110は、対象となる識別データ(N)よりも過去の識別データに関連付けられる補正前MCデータ(rN−1,rN−2,・・・の一部または全部)に基づいて、当該識別データ(N)に関連付けられる補正後MCデータ(C)を生成してもよい。この事例によれば、参照MCデータの選択次第で、対象となる識別データ(N)に関連付けられる補正前MCデータ(r)の取得を待たずとも補正後MCデータ(C)の(予測)生成を開始することができる。すなわち、補正前MCデータ(r)の取得から補正後MCデータ(C)が生成されるまでに生じる遅延を、データ補正部110における処理時間よりも短く、必要であれば零または負とすることが可能となる。遅延が負であることは、補正前MCデータ(r)が取得される前に補正後MCデータ(C)が生成されることを意味する。仮に、このデータ補正部110における処理時間を1.5単位時間(フレーム)とすると、データ補正部110は、対象となる識別データ(N)よりも1単位時間過去の識別データに関連付けられる補正前MCデータ(rN−1)を参照MCデータに含めたとしても、上記遅延は0.5単位時間に抑えられる。また、データ補正部110は、対象となる識別データ(N)よりも2単位時間以上過去の識別データに関連付けられる補正後MCデータ(CN−2,CN−3,・・・の一部または全部)を参照MCデータに含めてもよいし、処理時間が1単位時間以下であれば、対象となる識別データ(N)よりも1単位時間過去の識別データに関連付けられる補正後MCデータ(CN−1)を参照MCデータに含めてもよい。
さらなる別の例として図7に示されるように、データ補正部110は、対象となる識別データ(N)よりも過去の識別データに関連付けられる補正後MCデータ(CN−1,CN−2,・・・の一部または全部)に基づいて、当該識別データ(N)に関連付けられる補正後MCデータ(C)を生成してもよい。この事例によれば、参照MCデータの選択次第で、対象となる識別データ(N)に関連付けられる補正前MCデータ(r)の取得を待たずとも補正後MCデータ(C)の(予測)生成を開始することができる。すなわち、補正前MCデータ(r)の取得から補正後MCデータ(C)が生成されるまでに生じる遅延を、データ補正部110における処理時間よりも短く、必要であれば零または負とすることが可能となる。仮に、このデータ補正部110における処理時間を1単位時間(フレーム)以下とすると、データ補正部110は、対象となる識別データ(N)よりも1単位時間過去の識別データに関連付けられる補正後MCデータ(CN−1)を参照MCデータに含めたとしても、上記遅延は0または負に抑えられる。なお、処理時間が1単位時間を超える場合にも、データ補正部110は、対象となる識別データ(N)よりも2単位時間以上過去の識別データに関連付けられる補正後MCデータ(CN−2,CN−3,・・・の一部または全部)を含む参照MCデータを用いることで、上記遅延は0または負に抑えることが可能である。
このように、データ補正部110は、対象となる識別データに関連付けられる補正後MCデータをリアルタイムに生成することができる。故に、例えば演者の動きに対するアバターの追従性を高め、アバターの動きの遅れが演者に与える違和感を軽減することができる。特に、MCデータの補正、アバター画像のレンダリング、アバター画像を含む動画/仮想的コンテンツの生成、表示、ならびにデータ(補正後MCデータ、アバター画像、または動画/仮想的コンテンツ)の配信、などに必要な時間分を遡って、データ補正部110が補正後MCデータの生成を開始すれば、演者の動きと同時にアバターが動くようにすることも可能である。
データ補正部110は、例えば、機械学習済みの学習モデル(例えば、ニューラルネットワーク)によって、参照MCデータに基づいて、対象となる識別データに関連付けられる補正後MCデータをリアルタイムに生成してもよい。この学習モデルは、1つまたは複数のMCデータを結合して得られる入力ベクトルを受けて、1つの補正済みMCデータに相当する出力ベクトルを生成する。
かかる学習モデルには、同一の時系列、例えば同一の動体について時間的に連続して取得されるM(>N、M,Nは自然数)個の生のMCデータ群またはこれらの補正後MCデータ群、に含まれるN+1個のMCデータのうち時間的に最も新しい1個のMCデータに基づく目標ベクトル(または教師データ)と、残りのN個のMCデータに基づく入力ベクトル(または入力データ)とを含む学習データを用いて実行された機械学習の学習結果、例えばニューラルネットワーク重み、が設定され得る。なお、これらN+1組のMCデータは時間的に連続している必要はないし、時間的に最も近いMCデータ同士の時間差は一定である必要はない。すなわち、あるMCデータとその次に新しいMCデータとからなるMCデータのペアの時間差が2単位時間以上であってもよいし、その時間差はMCデータのペア毎に異なっていてもよい。ここで、目標ベクトルはクリーンなMCデータに相当し、入力ベクトルは少なくとも1個の非クリーンな(すなわち、エラーを含み得る)MCデータを含むN個以上のMCデータを結合して得られるベクトルに相当する。
クリーンなMCデータは、生のMCデータを手作業で補正することで用意されてもよいし、人工的にエラーを伴わないMCデータを生成することで用意されてもよいし、かかる補正済みのMCデータまたは人工的に生成されたMCデータに変換、例えば、平行移動、回転、拡大/縮小、せん断写像などを適用することで用意されてもよい。他方、非クリーンなMCデータは、生のMCデータであってもよいし、上記クリーンなMCデータの少なくとも1つの要素に(人工的に)エラーを付加することで用意されてもよいし、かかる生のMCデータまたはエラー付加されたMCデータに変換を適用することで用意されてもよい。
例えば図4のように、対象となる識別データ(N)に関連付けられる補正前MCデータ(r)と、オプションとしてその1単位時間前の識別データ(N−1)に関連付けられる補正前MCデータ(rN−1)と、オプションとしてそのさらに1単位時間前の識別データ(N−2)に関連付けられる補正後MCデータ(CN−2)とに基づいて、対象となる識別データに関連付けられる補正後MCデータ(C)を生成すると仮定する。この場合には、例えば、同一の時系列に含まれる3個のクリーンなMCデータを用意し、最も新しいMCデータを目標ベクトルとし、この最も新しいMCデータおよび2番目に新しいMCデータそれぞれに基づく2つの非クリーンなMCデータと最も古いMCデータとを結合して得られるベクトルを入力ベクトルとしてもよい。或いは、同一の時系列に含まれる3個の非クリーンなMCデータを用意し、最も新しいMCデータに基づくクリーンなMCデータを目標ベクトルとし、この最も新しいMCデータと、2番目に新しいMCデータと、最も古いMCデータに基づくクリーンなMCデータとを結合して得られるベクトルを入力ベクトルとしてもよい。
例えば図5のように、対象となる識別データ(N)の1単位時間前の識別データ(N−1)に関連付けられる補正前MCデータ(rN−1)と、オプションとしてそのさらに1単位時間前の識別データ(N−2)に関連付けられる補正後MCデータ(CN−2)とに基づいて、対象となる識別データに関連付けられる補正後MCデータ(C)を生成すると仮定する。この場合には、例えば、同一の時系列に含まれる3個のクリーンなMCデータを用意し、最も新しいMCデータを目標ベクトルとし、2番目に新しいMCデータに基づく非クリーンなMCデータと最も古いMCデータとを結合して得られるベクトルを入力ベクトルとしてもよい。或いは、同一の時系列に含まれる3個の非クリーンなMCデータを用意し、最も新しいMCデータに基づくクリーンなMCデータを目標ベクトルとし、2番目に新しいMCデータと、最も古いMCデータに基づくクリーンなMCデータとを結合して得られるベクトルを入力ベクトルとしてもよい。
例えば図6のように、対象となる識別データ(N)に関連付けられる補正前MCデータ(r)と、オプションとしてその1単位時間前および2単位時間前の識別データ(N−1およびN−2)に関連付けられる補正後MCデータ(CN−1およびCN−2)とに基づいて、対象となる識別データに関連付けられる補正後MCデータ(C)を生成すると仮定する。この場合には、例えば、同一の時系列に含まれる3個のクリーンなMCデータを用意し、最も新しいMCデータを目標ベクトルとし、最も新しいMCデータに基づく非クリーンなMCデータと、2番目に新しいMCデータと、最も古いMCデータとを結合して得られるベクトルを入力ベクトルとしてもよい。或いは、同一の時系列に含まれる3個の非クリーンなMCデータを用意し、最も新しいMCデータに基づくクリーンなMCデータを目標ベクトルとし、最も新しいMCデータと、2番目に新しいMCデータおよび最も古いMCデータそれぞれに基づく2個のクリーンなMCデータとを結合して得られるベクトルを入力ベクトルとしてもよい。
例えば図7のように、対象となる識別データ(N)の1単位時間前の識別データに関連付けられるMCデータ(CN−1)と、オプションとしてそのさらに1単位時間前の識別データ(N−2)に関連付けられる補正後MCデータ(CN−2)とに基づいて、対象となる識別データに関連付けられる補正後MCデータ(C)を生成すると仮定する。この場合には、例えば、同一の時系列に含まれる3個のクリーンなMCデータを用意し、最も新しいMCデータを目標ベクトルとし、2番目に新しいMCデータと最も古いMCデータとを結合して得られるベクトルを入力ベクトルとしてもよい。或いは、同一の時系列に含まれる3個の非クリーンなMCデータを用意し、最も新しいMCデータに基づくクリーンなMCデータを目標ベクトルとし、2番目に新しいMCデータおよび最も古いMCデータそれぞれに基づく2個のクリーンなMCデータを結合して得られるベクトルを入力ベクトルとしてもよい。
なお、データ補正部110の使用可能なリソース(例えば、プロセッサ能力)にとってMCデータの補正は負荷の大きな処理となる可能性がある。また、並列処理を利用しない場合には、各単位時間(例えば、フレーム)に関連付けられるMCデータに対するデータ補正部110の処理時間を1単位時間以内に抑える必要がある。そこで、負荷の削減および/またはデータ補正部110の処理時間への要求を緩和する観点から、MCデータに対する前述の補正を限られた単位時間(以降、単にキーフレームと称する)についてのみ行ってもよい。なお、本段落にいう「補正」は、対象となる識別データに関連付けられる補正前MCデータを含む参照MCデータに基づいて当該識別データに関連付けられる補正後MCデータを生成すること、および/または対象となる識別データに関連付けられる補正前MCデータを含まない参照MCデータに基づいて当該識別データに関連付けられる補正後MCデータを予測生成することを含む狭義の補正を意味するが、広義の補正には後述する補間生成も含まれ得る。また特に断りのない限り、本明細書の他の段落にいう「補正」は広義の補正を意味する。
キーフレームは、周期的に、例えばTフレーム(Tは2以上の自然数)おきに、定められてもよいし、ランダムに選択されたフレームであってもよい。さらに、キーフレームを周期的に定める場合に、その周期(フレーム数)は固定である必要はなくデータ補正部110によって(予測)生成された補正後MCデータの精度に基づいて動的に制御されてよい。例えば、データ補正部110によって予測生成された、あるキーフレームに関連付けられる補正後MCデータと、当該キーフレームに関連付けられる補正前MCデータおよび/または当該補正前MCデータに基づいて別途生成された補正後MCデータとの誤差を事後的に評価し、この誤差の大小に応じて周期を短くしたり長くしたりするようにしてもよい。例えば、大きな誤差が検出された場合には短い周期が設定され、小さな誤差が検出された場合には長い周期が設定され得る。
このようにキーフレームを定めた場合には、隣接する2つのキーフレーム間に1個または複数個の非キーフレームが存在する。データ補正部110は、隣接する2つのキーフレームに関連付けられる補正後MCデータに基づく内挿を行い、かかる非キーフレームに関連付けられる補正後MCデータを補間生成し得る。ここで、内挿として、任意の補間手法、例えば、線形補間、または躍度の最小化などの変分法に基づく補間、などが利用可能である。なお、各非キーフレームの補間生成に用いられるキーフレームの数は2つに限られない。例えば、三次曲線に基づく補間、変分法に基づく補間、などにおいては、各非キーフレームの補間生成に3以上のキーフレームが用いられ得る。
データ補正部110は、図8に例示されるように、あるキーフレーム(N)に関連付けられる補正後MCデータ(C)を、例えばその直前のキーフレーム(N−T)に関連付けられる補正後MCデータ(CN−T)を含む参照MCデータに基づいて予測生成する。なお、この参照MCデータには、オプションとして、上記直前のキーフレームよりも過去のフレームに関連付けられる補正後MCデータ、および/または補正後MCデータ(C)の(予測)生成の開始時点で取得済みである補正前MCデータが含まれ得る。それから、データ補正部110は、これら隣接する2つのキーフレーム(NおよびN−T)の間にあるT−1個の非キーフレーム(N−T+1,・・・,N−1)に関連付けられる補正後MCデータ(CN−T+1,・・・,CN−1)を、これら2つのキーフレームに関連付けられる補正後MCデータ(CN−TおよびC)に基づいて補間生成する。
前述の遅延を零または負とするために、上記キーフレーム(N)に関連付けられる補正後MCデータ(C)は、図8にも示されているように、上記T−1個の非キーフレーム(N−T+1,・・・,N−1)のうちの最初のフレーム(N−T+1)に関連付けられる補正前MCデータ(rN−T+1)が取得されるときよりも前に生成され得る。加えて、上記T−1個の非キーフレーム(N−T+1,・・・,N−1)に関連付けられる補正後MCデータ(CN−T+1,・・・,CN−1)の各々は、図8にも示されているように、当該非キーフレームに関連付けられる補正前MCデータが取得される時またはそれよりも前に補間生成され得る。
データ補正部110は、前述の予測生成および補間生成を行う場合に図9に例示されるように構成され得る。図9のデータ補正部110は、補正制御部111と、参照データ取得部112と、データ予測部113と、データ補間部114と、補正後データ出力部115とを含む。
補正制御部111は、参照データ取得部112に対して参照MCデータの取得を指示したり、データ予測部113またはデータ補間部114に補正済みMCデータの生成を指示したり、補正後データ出力部115に補正済みMCデータの出力を指示したりする。具体的には、補正制御部111は、キーフレームに関連付けられる補正済みMCデータを予測生成する場合には、参照データ取得部112に必要な参照MCデータ(補正前MCデータおよび/または補正後MCデータ)の取得を指示し、取得された参照MCデータに基づく補正後MCデータの予測生成をデータ予測部113に指示し、生成された補正後MCデータの出力を補正後データ出力部115に指示する。他方、補正制御部111は、非キーフレームに関連付けられる補正済みMCデータを補間生成する場合には、参照データ取得部112に必要な参照MCデータ(キーフレームに関連付けられる補正後MCデータ)の取得を指示し、取得された参照MCデータに基づく補正後MCデータの補間生成をデータ予測部113に指示し、生成された補正後MCデータの出力を補正後データ出力部115に指示する。
参照データ取得部112は、補正制御部111からの指示に従って、補正前データ記憶部102および/または補正後データ記憶部103から補正前MCデータおよび/または補正後MCデータを読み出し、読み出したMCデータを参照MCデータとして補正制御部111に返す。
データ予測部113は、補正制御部111からの指示に従って、対象となるキーフレームに関連付けられる補正後MCデータを参照MCデータに基づいて予測生成し、生成した補正後MCデータを補正制御部111に返す。
データ補間部114は、補正制御部111からの指示に従って、対象となる非キーフレームに関連付けられる補正後MCデータを参照MCデータに基づいて補間生成し、生成した補正後MCデータを補正制御部111に返す。
補正後データ出力部115は、補正制御部111からの指示に従って、データ予測部113またはデータ補間部114によって生成された補正後MCデータを出力するとともに、補正後データ記憶部103に書き込む。
以下、図10を用いて、データ補正部110の動作を説明する。図10の処理が開始すると、処理はステップS501へ進む。なお、図10の処理と並列的に、データ取得部101は、例えば単位時間毎に補正前MCデータを取得して補正前データ記憶部102に書き込み得る。この補正前MCデータは、参照MCデータの一部として使用され得る。また、図10の動作例ではデータ補正部110は狭義の補正および補間生成を併用することを前提としているが、データ補正部110は全て単位時間について狭義の補正を行うことも可能である。
ステップS501において、データ補正部110は、対象となるキーフレームを選択する。具体的には、データ補正部110は、未選択のキーフレームのうち最も直近の1つを選択し得る。例えば、データ補正部110は、直前のステップS501の実行時に選択したキーフレームのTフレーム後のキーフレームを選択する。
データ補正部110は、ステップS501において選択したキーフレームに関連付けられる補正後MCデータを参照MCデータに基づいて生成する(ステップS502)。それから、データ補正部110は、ステップS501において選択したキーフレームとその1つ前のキーフレームとの間にある1個以上の非キーフレームに関連付けられる補正後MCデータを、当該2つのキーフレームに関連付けられる補正後MCデータに基づいて補間生成する(ステップS503)。
ステップS503に続くステップS504では、全ての単位時間に関連付けられる補正後MCデータが生成されたか否かが判定される。全ての単位時間に関連付けられる補正後MCデータが生成されたならば、例えば、補正後MCデータに基づくアバター画像を含む動画/仮想的コンテンツにおける全フレームに関連付けられる補正後MCデータが生成されたならば、図10の処理は終了する。他方、全ての単位時間に関連付けられる補正後MCデータが生成されていないならば、次のキーフレームを選択するために処理はステップS501に戻る。
以上説明したように、実施形態に係るデータ補正装置は、対象となる単位時間(例えばフレーム)に関連付けられる補正後MCデータを、当該単位時間に関連付けられる補正前MCデータ、および/またはそれよりも過去の単位時間に関連付けられる補正前および/または補正後MCデータを含む参照MCデータに基づいてリアルタイム生成する。故に、このデータ補正装置によれば、例えば演者の動きに対するアバターの追従性を高め、アバターの動きの遅れが演者に与える違和感を軽減することができる。
上述の実施形態は、本発明の概念の理解を助けるための具体例を示しているに過ぎず、本発明の範囲を限定することを意図されていない。実施形態は、本発明の要旨を逸脱しない範囲で、様々な構成要素の付加、削除または転換をすることができる。
上述の実施形態では、いくつかの機能部を説明したが、これらは各機能部の実装の一例に過ぎない。例えば、1つの装置に実装されると説明された複数の機能部が複数の別々の装置に亘って実装されることもあり得るし、逆に複数の別々の装置に亘って実装されると説明された機能部が1つの装置に実装されることもあり得る。
上記各実施形態において説明された種々の機能部は、回路を用いることで実現されてもよい。回路は、特定の機能を実現する専用回路であってもよいし、プロセッサのような汎用回路であってもよい。
上記各実施形態の処理の少なくとも一部は、例えば汎用のコンピュータに搭載されたプロセッサを基本ハードウェアとして用いることでも実現可能である。上記処理を実現するプログラムは、コンピュータで読み取り可能な記録媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記録媒体に記憶される。記録媒体としては、磁気ディスク、光ディスク(CD−ROM、CD−R、DVD等)、光磁気ディスク(MO等)、半導体メモリなどである。記録媒体は、プログラムを記憶でき、かつ、コンピュータが読み取り可能であれば、何れであってもよい。また、上記処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。
100・・・データ補正装置
101・・・データ取得部
102・・・補正前データ記憶部
103・・・補正後データ記憶部
110・・・データ補正部
111・・・補正制御部
112・・・参照データ取得部
113・・・データ予測部
114・・・データ補間部
115・・・補正後データ出力部
200・・・クライアント
300・・・サーバ
400・・・観客端末

Claims (10)

  1. 第1の単位時間に関連付けられる第1の位置データセットを取得し、前記第1の位置データセットの取得後に前記第1の単位時間よりも後の第2の単位時間に関連付けられる第2の位置データセットを取得する取得部と、
    前記第1の位置データセット、前記第1の単位時間に関連付けられる第1の補正後位置データセット、および前記第2の位置データセットのうち少なくとも1つを含む参照位置データセットに基づいて、前記第2の単位時間に関連付けられる第2の補正後位置データセットをリアルタイム生成する補正部と
    を具備する、データ補正装置。
  2. 前記補正部は、前記第1の位置データセットおよび前記第1の補正後位置データセットのうち少なくとも一方を含む前記参照位置データセットに基づいて、前記第2の補正後位置データセットを予測生成する、請求項1に記載のデータ補正装置。
  3. 前記補正部は、前記第1の補正後位置データセットおよび前記第2の補正後位置データセットに基づく内挿を行い、前記第1の単位時間と前記第2の単位時間との間にある第3の単位時間に関連付けられる第3の補正後位置データセットを補間生成する、請求項2に記載のデータ補正装置。
  4. 前記取得部は、前記第1の位置データセットの取得後かつ前記第2の位置データセットの取得前に、前記第3の単位時間に関連付けられる第3の位置データセットを取得し、
    前記補正部は、(a)前記第3の位置データセットが取得される時よりも前に、前記第1の位置データセットおよび前記第1の補正後位置データセットのうち少なくとも一方を含む前記参照位置データセットに基づいて、前記第2の補正後位置データセットを予測生成し、(b)前記第3の位置データセットが取得される時またはそれよりも前に、前記第1の補正後位置データセットおよび前記第2の補正後位置データセットに基づく内挿を行い、前記第3の補正後位置データセットを補間生成する、
    請求項3に記載のデータ補正装置。
  5. 前記第1の単位時間から前記第2の単位時間までの単位時間数は、前記補正部によって予測生成された補正後位置データセットの精度に基づいて動的に制御される、請求項3または請求項4に記載のデータ補正装置。
  6. 前記補正部は、前記第2の位置データセットが取得される時またはそれよりも前に、前記第1の位置データセットおよび前記第1の補正後位置データセットのうち少なくとも一方を含む前記参照位置データセットに基づいて、前記第2の補正後位置データセットを予測生成する、請求項2に記載のデータ補正装置。
  7. 前記補正部は、学習モデルによって、前記参照位置データセットに基づいて前記第2の補正後位置データセットを生成する、請求項1乃至請求項6のいずれか1項に記載のデータ補正装置。
  8. 前記学習モデルは、同一の時系列に含まれる自然数N+1個の位置データセットのうち時間的に最も新しい1個の位置データセットに基づく目標ベクトルと、残りのN個の位置データセットに基づく入力ベクトルとを含む学習データを用いて実行された機械学習の学習結果が設定されている、請求項7に記載のデータ補正装置。
  9. 前記目標ベクトルは、前記最も新しい1個の位置データセットに基づくクリーンな位置データセットであり、
    前記入力ベクトルは、前記残りのN個の位置データセットの少なくとも1つに基づく非クリーンな位置データセットを含むN個以上の位置データセットを結合して得られるベクトルである、
    請求項8に記載のデータ補正装置。
  10. コンピュータを
    第1の単位時間に関連付けられる第1の位置データセットを取得し、前記第1の位置データセットの取得後に前記第1の単位時間よりも後の第2の単位時間に関連付けられる第2の位置データセットを取得する手段、
    前記第1の位置データセット、前記第1の単位時間に関連付けられる第1の補正後位置データセット、および前記第2の位置データセットのうち少なくとも1つを含む参照位置データセットに基づいて、前記第2の単位時間に関連付けられる第2の補正後位置データセットをリアルタイム生成する手段
    として機能させるデータ補正プログラム。
JP2018218639A 2018-11-21 2018-11-21 データ補正装置およびプログラム Active JP6810121B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018218639A JP6810121B2 (ja) 2018-11-21 2018-11-21 データ補正装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018218639A JP6810121B2 (ja) 2018-11-21 2018-11-21 データ補正装置およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020060162A Division JP2020102272A (ja) 2020-03-30 2020-03-30 データ補正装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2020086793A true JP2020086793A (ja) 2020-06-04
JP6810121B2 JP6810121B2 (ja) 2021-01-06

Family

ID=70908175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018218639A Active JP6810121B2 (ja) 2018-11-21 2018-11-21 データ補正装置およびプログラム

Country Status (1)

Country Link
JP (1) JP6810121B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112270734A (zh) * 2020-10-19 2021-01-26 北京大米科技有限公司 一种动画生成方法、可读存储介质和电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112270734A (zh) * 2020-10-19 2021-01-26 北京大米科技有限公司 一种动画生成方法、可读存储介质和电子设备
CN112270734B (zh) * 2020-10-19 2024-01-26 北京大米科技有限公司 一种动画生成方法、可读存储介质和电子设备

Also Published As

Publication number Publication date
JP6810121B2 (ja) 2021-01-06

Similar Documents

Publication Publication Date Title
US8154552B2 (en) Looping motion space registration for real-time character animation
CN107211117B (zh) 使用交织合成第二眼睛视口
US20110119332A1 (en) Movement animation method and apparatus
US11057609B2 (en) Information processing apparatus, information processing method, and computer readable storage medium for determining a moving path of virtual viewpoint
EP4017606A1 (en) Artificial intelligence (ai) controlled camera perspective generator and ai broadcaster
US9934607B2 (en) Real-time goal space steering for data-driven character animation
US10026210B2 (en) Behavioral motion space blending for goal-oriented character animation
JP7200935B2 (ja) 画像処理装置および方法、ファイル生成装置および方法、並びにプログラム
JP7425196B2 (ja) ハイブリッドストリーミング
KR20230148239A (ko) 신경망을 사용하는 비디오로부터의 로버스트 얼굴 애니메이션
JP2020086793A (ja) データ補正装置およびプログラム
JP2020150519A (ja) 注目度算出装置、注目度算出方法、および注目度算出プログラム
Kim et al. Human motion reconstruction from sparse 3D motion sensors using kernel CCA‐based regression
US20240004529A1 (en) Metaverse event sequencing
JP2020102272A (ja) データ補正装置およびプログラム
JP6585866B1 (ja) 位置データ処理装置およびプログラム
JP6684336B1 (ja) データ補正装置およびプログラム
WO2021187093A1 (ja) 画像処理装置、および、動画像データ生成方法
Lin et al. Temporal IK: Data-Driven Pose Estimation for Virtual Reality
JP2021033347A (ja) 画像処理装置、画像処理方法及びプログラム
JP7356662B2 (ja) コンピュータプログラム、及び方法
JP2020087483A (ja) データ補正装置およびプログラム
KR102674943B1 (ko) 하이브리드 스트리밍
JP6766123B2 (ja) データ補正装置およびプログラム
JP2020149696A (ja) データ補正装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190625

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190625

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191023

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200330

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200330

C876 Explanation why request for accelerated appeal examination is justified

Free format text: JAPANESE INTERMEDIATE CODE: C876

Effective date: 20200330

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200410

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200414

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200522

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200526

C305 Report on accelerated appeal examination

Free format text: JAPANESE INTERMEDIATE CODE: C305

Effective date: 20200528

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200602

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200623

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200915

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201016

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20201027

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20201201

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201210

R150 Certificate of patent or registration of utility model

Ref document number: 6810121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250